Tecnología
El marchamo digital: inseguridad y capacidad de vigilancia que se despliega
RESUMEN
Entre finales de 2026 e inicios de 2027 el país se moverá del marchamo en papel a un marchamo digital con una tecnología RFID. Las pregunta sobran.
Entre finales de 2026 e inicios de 2027 el país se moverá del marchamo en papel a un marchamo digital con una tecnología RFID legible a 10 metros con el vehículo detenido y desde pórticos de 6 metros de altura con el vehículo a 120 km/h.
Este artículo no es para argumentar que el Gobierno actual busque o no realizar vigilancia; es para exponer técnica y políticamente los riesgos a los que este proyecto expone a los costarricenses y las correcciones tecnológicas y de gobernanza que requeriría una solución de este tipo.
Se nos presenta como una modernización necesaria para resolver varios problemas que el marchamo en papel tiene hoy en día. Problemas que nos cuestan a todos y que resolverlos bien podría ahorrarnos dinero y de paso mejorar los procesos de fiscalización. En especial, permitiría eventualmente expandir los usos a otros casos con costos relativamente marginales ya que las etiquetas RFID tienden a ser baratas.
Si bien se nos indica que el inicio de este proyecto es para mejorar la fiscalización del marchamo, también se plantea que en el futuro podría utilizarse para otros fines, como parqueos inteligentes, peajes, cobro por ingresar a San José, ciudades inteligentes, control de tránsito y multas impersonales, entre otros. Por eso, una simple app con un buscador por placa para oficiales de tránsito sólo resolvería el problema inicial de mejorar la fiscalización del marchamo, pero no permitiría desarrollar los demás usos que se contemplan a futuro.
Lo que se está llevando adelante no es solamente el despliegue de tags de RFID en todos los vehículos y motos. Es una capacidad de lectura distribuida y una base de datos centralizada a la que varios entes públicos podrían conectarse. En palabras del MICITT: “… remitirá la información hacia un sistema informático centralizado”.
De manera masiva, estos lectores se pueden desplegar en diversos puntos del país y automáticamente registrar la ubicación de cada vehículo para así localizar a cada persona en tiempo real, e inclusive reconstruir sus movimientos de manera extremadamente precisa. Dónde duerme, dónde trabaja, a quién visita, cuándo lo visita, con qué frecuencia, por cuánto tiempo. Todo esto se logra gracias al diseño de la tecnología, no depende de querer o no hacerlo.
El primer problema que tiene es la forma en la cual se está poniendo en marcha. El proyecto no ha pasado por la Asamblea Legislativa, no se sustenta en una ley específica y prácticamente no ha existido discusión pública al respecto. Un proyecto de este calibre, con capacidad de identificación masiva, debería requerir reserva de ley, así como también cualquier ampliación futura de sus usos o alcances.
Lo segundo es que cualquier proyecto de este tipo debe tener una serie de principios rectores básicos para la protección de datos y la privacidad como los siguientes:
- Minimización de datos y separación de funcionalidades. Un sistema de este tipo debe recolectar lo mínimo necesario para cumplir su función definida. Si el fin es verificar el pago del marchamo, no necesita saber dónde está el vehículo en cada momento. Asimismo, debe existir una separación criptográfica entre la identificación y la verificación. Por ejemplo, una verificación binaria (pagó / no pagó el marchamo o revisión técnica vehicular) es suficiente sin necesidad de registrar la ubicación del vehículo o inclusive identificar al usuario si se reporta como “sí pagó”.
- Limitación de propósito. Los datos recolectados para un propósito no pueden reutilizarse para otro sin nueva base legal. La policía de tránsito verificando un pago no puede compartir esos registros con migración, Hacienda, o un fiscal en una investigación no relacionada. Un diseño federado en este caso es fundamental (como lo hace Estonia con e-government).
- Privacidad por defecto. El estado más restrictivo debe ser el predeterminado. Es decir, el usuario tiene que optar por compartir más, no optar por no compartir. No se puede forzar a las personas a usar funcionalidades que no desean adquirir, por ejemplo, “ciudades inteligentes” a la fuerza.
- Trazabilidad y rendición de cuentas. Todo acceso al sistema debe quedar registrado y existir una autoridad independiente que audite esos registros. Los ciudadanos pueden saber cuándo, quién y por qué accedió a sus datos. En este caso, lo ideal es que a la PRODHAB se le asignen fondos correspondientes para cumplir con esta función auditora.
¿Las placas actuales no permiten hacer esto mismo pero con cámaras?
Este argumento tiene dos problemas que se refuerzan mutuamente.
Primero, si fuera cierto que las placas y cámaras hacen lo mismo, no se entendería por qué el Estado está invirtiendo millones en RFID para los usos anteriormente mencionados. La decisión misma de adquirir esta tecnología revela que no son equivalentes.
La literatura técnica documenta las ventajas prácticas que tienen estos sistemas de RFID sobre los sistemas de ANPR (cámaras + reconocimiento óptico de placas): lectura sin línea de vista, sin error de OCR, en cualquier condición ambiental, con hardware barato e indetectable, a velocidades altas y sin intervención humana. Esas son precisamente las capacidades que más preocupan desde la perspectiva de privacidad.
Segundo, aunque fueran funcionalmente equivalentes a nivel de identificador, el problema nunca fue el identificador en abstracto sino el sistema que se despliega alrededor: la red de lectores y la base de datos central. Esa infraestructura no existe hoy en Costa Rica como red nacional, y el marchamo digital la está creando.
Por ende, si mañana el Gobierno propusiera desplegar diez mil cámaras ANPR con base de datos centralizada, la preocupación sería idéntica y nadie diría “pero las placas ya existen, ¿qué cambia?”.
La Sala IV ya falló “a favor” del marchamo digital
En 2023 se ingresó un recurso de amparo (23-015121-0007-CO), el cual la Sala IV rechazó bajo el argumento de que se basa en escenarios hipotéticos. Pero los casos de expansión de uso de esta tecnología no son hipotéticos, han sido expresados explícitamente por diversos voceros del proyecto. Asimismo, la especificación no es hipotética, habilita esas funcionalidades, se usen o no, inclusive podemos reconocer muchas de las vulnerabilidades sin tener toda especificación completa.
Ese fallo también ignora que el control constitucional contra la expansión de vigilancia debe ser ex ante. De otra forma, es el equivalente a decir que no se puede exigir que un edificio tenga salidas de emergencia hasta que ocurra un incendio.
Esta red de identificación masiva en tiempo real, habilitada por la obligatoriedad de contar con un hardware de telemetría, nos expone a una serie importante de nuevos riesgos cibernéticos. Muchos de ellos no parecen estar mitigados de forma explícita ni en la especificación técnica pública del proyecto ni a la luz del historial reciente del Estado en esta materia.
La primera bandera roja que levanta este proyecto, según el historial de modificaciones del cartel, es la eliminación de requisitos mínimos de seguridad. Por ejemplo, se eliminó la exigencia de que el tag contara con protecciones básicas anti clonación o derivación mediante la emisión de un número “aleatorio, único e irrepetible”. En su lugar, se aceptó un código estático por vehículo, sin requisitos de aleatoriedad criptográfica y potencialmente secuencial o predecible a partir del folio impreso, algo que la literatura especializada identifica como fácilmente clonable. Además, se eliminó el requisito de “protección contra químicos adulteradores”. Todo esto puede verificarse en el expediente de SICOP 2024LY-000043-0001000001.
La especificación solicitada sin autenticación de lectores y sin pseudónimos rotativos (que cambian cada vez que se lee o cada cierto tiempo, disponibles en la versión más moderna EPC Gen2 V2) permite que la delincuencia organizada cree una red de seguimiento de vehículos sin mucha inversión.
El argumento de la Sala IV sobre que el “acceso requiere lector homologado por SUTEL” no protege contra lecturas no autorizadas. Quizás confundieron homologación con que de alguna forma sólo los dispositivos homologados podrían leer los tags. El protocolo Gen2 que se adquirió comparte la información del EPC en plano, sin encriptación. Inclusive, se exige un código QR impreso que exponga de manera legible el número de folio en el parabrisas.
Que el código sea fácilmente legible implica también que con adquirir unos tags en Alibaba o Amazon, un atacante podría clonar el valor EPC de un tag de otra persona y andarlo por la calle. La Sala IV falló al presumir que el sistema tenía resguardos técnicos.
Pero inclusive, por cómo funciona esta tecnología, el método con el que se transmite la contraseña de acceso del EPC Gen2 permite que un atacante la obtenga con una sola escucha de una operación legítima de aprovisionamiento, y con ella sobrescriba un tag oficial. La ‘seguridad’ que el protocolo implementa sobre esa contraseña es ofuscación, no encriptación: acceder al valor es trivial (RFID security and privacy: A research survey. Juels, 2006) y por ende, si se comparte una sola contraseña para todos los tags (como es común en este tipo de sistemas) se puede exponer toda la flota con una sola vulneración.
Ofuscación
Ofuscación: En esencia, es convertir código legible en algo funcional pero “confuso” para protegerlo.
En el caso de que esta tecnología se utilice para fines policiales, los criminales podrían clonar los tags de personas inocentes (placa, VIN y demás datos) y colocarlos en sus vehículos mientras clones de los tags de sus vehículos andan por otras partes “despistando” a las autoridades. Bajar el grado de seguridad como se hizo en el cartel tiene implicaciones no triviales.
Sumado a estos riesgos con el tag, desde el lado del sistema central, el riesgo más grande y obvio al que nos exponemos y que debemos reconocer y discutir es la enorme base de datos de ubicaciones en tiempo real que potencialmente se creará. No sabemos prácticamente nada de las especificaciones de esta parte. Esa falta de transparencia es altamente preocupante.
Una base de datos de este tipo sería un enorme atractivo para ciberataques. Recordemos que recientemente Costa Rica ha sido objeto de múltiples ataques, desde bancos públicos, hasta el mismo Ministerio de Hacienda y la Caja Costarricense del Seguro Social. Sistemas de este tipo deben seguir las buenas prácticas internacionales como las que se han presentado en Alemania (Toll Collect) y en Suiza (HVF); asimismo con los principios generales de gobierno digital de Estonia (e-government).
El cartel ya adjudicado de tags con especificaciones de emisión estática y poco segura, restringe la posibilidad de crear una infraestructura que preserve la privacidad y proteja al ciudadano de una trazabilidad masiva de parte del Estado o de actores “malos”. Aunque no tengamos la especificación o cartel de este sistema, podemos conocer las limitaciones derivadas de las especificaciones de los tags.
Un fin legítimo y loable no es un seguro de protección, se deben realizar acciones positivas al respecto y seguir las mejores prácticas de diseño de sistemas de esta índole. Y reconociendo la historia reciente de débil capacidad estatal frente a ciberataques, expandir activos de esta naturaleza sin antes resolver esos problemas estructurales nos expone a riesgos desproporcionados.
Un sistema de este tipo, si se debatiera de manera abierta y en los foros correspondientes (por ejemplo a nivel de Asamblea Legislativa) debería contar con salvaguardas legales y tecnológicas que prioricen la protección ciudadana. Por ejemplo, prohibir que se expandan los usos del sistema más allá del inicial (peajes, parqueos, gestión de tráfico, restringir acceso a zonas del país) sin una legislación fresca correspondiente en lugar de solamente una decisión administrativa.
Exponer esto no es una queja contra la modernización. Pero sí es una alerta sobre un diseño que no logra garantizar adecuadamente la seguridad y la privacidad de los ciudadanos. Muchos estamos a favor de que haya más tecnología para hacer al Estado más eficiente. Sin embargo, los principios de proporcionalidad, protección del ciudadano y controles fuertes contra abusos o invasiones a la privacidad deben estar incorporados desde el origen en cualquier iniciativa de esta índole.
Debemos comprender que un sistema de este tipo está definido por sus capacidades, no únicamente por sus usos actuales o las intenciones expresas de los gobernantes de turno. Vale la pena recordar que actualmente los costarricenses estamos sumamente desprotegidos frente al uso indebido de nuestros datos, incluso por parte del propio Estado, y que anteriormente se ha planteado la necesidad de modernizar el marco regulatorio mediate el Expediente 23.097 que acumula tres años de trámite legislativo sin aprobación final.
Las opiniones expresadas en este artículo son responsabilidad del autor y no representan necesariamente la postura oficial de Primera Línea. Nuestro medio se caracteriza por ser independiente y valorar las diversas perspectivas, fomentando la pluralidad de ideas entre nuestros lectores.
Tecnología
La literatura detrás de la ley para regular el acceso de menores a plataformas digitales
RESUMEN
Una débil base de respaldo científico pero un título bonito nos puede llevar a una situación catastrófica.
Un proyecto de ley de la envergadura del Exp 25336 (LEY PARA REGULAR EL ACCESO Y USO DE PLATAFORMAS DIGITALES POR PARTE DE MENORES DE EDAD) requiere un respaldo robusto, ya que implicaría permitirle al Estado traspasar varios límites y libertades bajo la premisa de que los beneficios serán en pro de la niñez y juventud del país.
En otro artículo de diciembre del 2025 desarrollé las razones por las cuales este expediente me preocupa. Pero dado que esta semana se anunció que el mismo está avanzando en comisión en la Asamblea Legislativa, quise adentrarme más en la literatura y evidencias que supuestamente respaldan tales restricciones.
Literatura
Entonces, revisemos las principales piezas de literatura que se referencian en el Exp 25336 para poder decidir si tiene el consenso científico que intenta dar a entender.
El primero es un artículo, no es un estudio (como dice el proyecto de ley incorrectamente), de la Johns Hopkins denominado Social Media And Mental Health In Children And Teens.
Según el proyecto de ley este es uno de los “estudios” que “… evidencian tanto los efectos negativos del uso como del acceso en sí a plataformas digitales en personas menores de edad”. Pero un párrafo más abajo, el mismo proyecto reconoce que ese artículo indica que “… está correlacionado con síntomas de depresión”.
La diferencia entre correlación y causalidad no es una distinción menor. Tomar una correlación y utilizarla como “evidencia” de algo es no comprender los términos. El mismo artículo es claro en que ese vínculo no es causal.

Cuando las personas confunden estos términos, suele ser porque piensan que es un tema del “grado” de relación. Como si “correlacionado” implicara una causalidad leve o suave. Pero no es así. Una correlación dicta que dos fenómenos aparecen juntos, pero no permite establecer que uno es la causa del otro.
De hecho el mismo artículo deja abierta la pregunta de si las redes causan la depresión o si las personas deprimidas tienden a usarlas más. Es decir, que el vínculo causal va en la dirección contraria o inclusive podrían tener una causa común.
El proyecto también indica que “… hay riesgo de disrupciones en el cerebro” pero omite la parte del artículo donde el Cirujano General de los Estados Unidos aclara que esto podría ocurrir en casos de uso excesivo. Ignorar eso, hace que esa afirmación deja de referirse a un subconjunto de usuarios y se presenta como si aplicara en forma general. Es decir, la exagera.

La segunda referencia sí corresponde a un estudio denominado “The Impact of Social Media on Children’s Mental Health: A Systematic Scoping Review”. De ahí, el proyecto dice “… se estima que el 70% de menores de edad entre 8 y 12 años usan plataformas digitales”. Esto no es un hallazgo del estudio, es una referencia del 2016 centrada únicamente en el uso de Facebook, es decir, difícilmente puede considerarse representativa o relevante 10 años después.
El proyecto afirma que “se hallaron asociaciones entre uso prolongado, comportamiento pasivo (scrolling) y aumento de síntomas depresivos.”. Pero el proyecto elimina la mitad de las conclusiones del estudio donde indica que el uso moderado facilita interacciones sociales y expresión emocional, y puede tener influencia positiva en la salud mental.

Systematic Scoping Review (2024)
Además, esta referencia corresponde a una revisión exploratoria, no a un metaanálisis. Es decir, el nivel del mismo es muy limitado (de 6.714 artículos revisados, solo 16 pasaron los criterios de inclusión). A esto se suma que el propio estudio concluye que no es posible inferir de manera conclusiva el impacto.

Systematic Scoping Review (2024)
Estas dos piezas de literatura no respaldan una prohibición de redes sociales. A lo sumo, respaldan la teoría de que hay una correlación pero no establecen vínculos causales ni proponen prohibiciones del nivel que plantea este proyecto. Esto debería, como mínimo, generar dudas sobre si los autores del proyecto de ley realmente leyeron los estudios.
Legislación comparada
El otro punto que vale la pena mencionar es el uso de la legislación comparada y sus errores. Este enfoque consiste en analizar que han hecho en otros países como referencia o respaldo para la creación de una nueva ley.
El proyecto hace referencia a Australia, España, Francia, Reino Unido, Brasil, Chile y Ecuador. Mezcla como mínimo 3 categorías distintas: la prohibición de celulares en escuelas, la regulación de contenido en plataformas y la prohibición de acceso a plataformas por edad.
De los siete países citados como precedente, cuatro (Francia, Brasil, Chile y Ecuador) prohibieron celulares en escuelas, que es algo completamente diferente a prohibir el acceso a plataformas digitales. Dos (España y Reino Unido) optaron por regular el contenido y el diseño de plataformas, sin prohibir el acceso de menores. El único caso comparable es Australia, que implementó un modelo radicalmente distinto al de este proyecto: excluyó mensajería, videojuegos y plataformas educativas, invirtió millones en tecnología de verificación, y aún así el 61% de los menores australianos continúan accediendo a redes sociales cuatro meses después de la prohibición (Molly Rose Foundation, 2026).

A pesar de esas diferencias, el proyecto presenta todos los casos como si fueran la misma cosa (“países que ya han tomado medidas”) para crear la impresión de un consenso global que no existe en los términos específicos que propone.
Conclusión
La exposición de motivos del Expediente 25.336 construye un caso que aparenta solidez documental, pero que, al examinarse de cerca revela errores conceptuales, una selección sesgada de hechos y datos, la exageración de conclusiones de estudios, y una lista de precedentes internacionales que, en su mayoría, no respaldan lo que el proyecto realmente propone.
Debido a esa débil justificación, debemos evitar que tal proyecto avance y ponga en riesgo, como mínimo, lo siguiente:
- La libertad de expresión y acceso a la información. (art. 29 Constitución, art. 13 Convención Americana). Prohibir el acceso a “plataformas digitales” (definidas de forma tan amplia que abarcan prácticamente todo el internet) a menores de 14 años restringe su derecho a buscar, recibir y difundir información. La propia Convención sobre los Derechos del Niño (art. 13) reconoce ese derecho.
- El derecho a la privacidad. (art. 24 Constitución, art. 11 CADH). El mecanismo de verificación por TIM obliga a que menores y sus familias entreguen datos de identidad a plataformas privadas extranjeras como condición para ejercer un derecho. Se trata de una recolección masiva de datos de menores para “proteger” menores.
- La libertad de asociación. (art. 25 Constitución). Si la definición abarca cualquier sistema que permita interacción entre dos o más usuarios, estamos prohibiendo que un menor de 14 años participe en grupos de estudio en línea (aunque supuestamente existe una excepción a este), comunidades religiosas digitales, foros de interés o cualquier forma de asociación que ocurra en internet.
- Autonomía familiar y patria potestad. El proyecto impone obligaciones a los padres, pero simultáneamente les quita la capacidad de decidir. Un padre que considere que su hijo de 12 años puede usar responsablemente una plataforma educativa con componente social estaría incumpliendo la ley. El Estado sustituye el criterio parental por una prohibición absoluta por edad.
- Proporcionalidad como principio constitucional. Incluso aceptando que existe un interés legítimo en proteger menores, una prohibición de acceso a todas las plataforma con interacción social para menores de 14 (sin gradualidad, sin excepciones funcionales, sin distinción por tipo de plataforma) no supera un test de proporcionalidad.
Lo que la literatura sí respalda, incluidos los propios estudios que este proyecto cita, es un enfoque radicalmente diferente al de la prohibición. Por ejemplo, concluyen que, para mejorar la salud mental infantil es esencial guiar a los niños en el uso adecuado de redes sociales y asegurar un fuerte acompañamiento familiar y social. No recomiendan prohibiciones de acceso.
La evidencia apunta a una combinación de educación digital desde edades tempranas, regulación del diseño adictivo de las plataformas (scroll infinito, autoplay, algoritmos de engagement), fortalecimiento de herramientas de control parental voluntarias y persecución penal efectiva de los delitos que ya existen en nuestro Código Penal: grooming, sextorsión, ciberacoso.
España incluyó reformas penales y programas de alfabetización digital. Reino Unido está incorporando educación en medios como contenido obligatorio del currículo. Eso es lo que hace una legislación seria.
Prohibir el acceso a “plataformas digitales” para menores de 14 años no es protección. Es la simulación de protección. Y cuando un proyecto de ley usa evidencia que no entiende para justificar restricciones que no funcionan, el costo no lo pagan las plataformas: lo pagan los menores, que se quedan sin herramientas, sin educación y sin derechos.
Las opiniones expresadas en este artículo son responsabilidad del autor y no representan necesariamente la postura oficial de Primera Línea. Nuestro medio se caracteriza por ser independiente y valorar las diversas perspectivas, fomentando la pluralidad de ideas entre nuestros lectores.
Tecnología
El Lujo de lo Imperfecto
RESUMEN
La disrupción no está solo en lo que la IA puede hacer, sino en cómo nos obliga a redefinir lo valioso. Cuando todo se puede optimizar, lo imperfecto y humano empieza a diferenciarse. No es rechazo a la tecnología, es un reajuste de prioridades.
Durante los últimos meses he participado en muchas conversaciones sobre inteligencia artificial y tecnologías de última frontera. En empresas, foros gremiales, ante autoridades políticas, en juntas directivas y con emprendedores, en casi todas aparece la misma mezcla de emociones: fascinación y un poco de vértigo.
Hoy la IA no solo escribe textos o diseña imágenes. Ya está programando software completo, depurando código, generando arquitecturas, ejecutando pruebas y hasta desplegando aplicaciones. Herramientas recientes permiten tener agentes autónomos trabajando directamente en nuestras computadoras: leyendo correos, ejecutando tareas, navegando sistemas, conectando aplicaciones y tomando acciones como si fueran asistentes digitales con criterio operativo. Incluso pueden coordinarse entre ellos para resolver procesos complejos.
Cada semana aparece algo nuevo que hace cosas que, hace apenas un año, parecían ciencia ficción. Pero el cambio no se queda solo en lo que vemos en una pantalla; la inteligencia artificial ya está empezando a transformar cómo operan las empresas, cómo toman decisiones los gobiernos y cómo funcionan industrias completas, pasando de ser una herramienta de apoyo a convertirse en una capa activa que ejecuta, decide y optimiza en tiempo real.
En otras palabras, no estamos simplemente frente a una nueva herramienta digital.
Estamos presenciando el comienzo de una transformación mucho más profunda en la forma en que producimos, decidimos, gobernamos y creamos valor en la sociedad, pero también en la forma en que entendemos el mundo y socializamos.
Es, en realidad, un cambio de paradigma para la humanidad y, desde mi perspectiva, un experimento social global.
Cuando la tecnología avanza, lo humano se revaloriza
Pero, mientras más avanzamos hacia ese mundo hiper-digital, empiezan a surgir otras conversaciones, con menos hype, pero definitivamente más profundas: conversaciones sobre lo humano.
Yo no sé si todo esto tenga que ver con mi propia experiencia y formación. Soy ingeniero y llevo más de 25 años trabajando en la industria de la tecnología, construyendo empresas y exportando servicios de alto valor agregado a los mercados más competitivos del mundo. Además, soy generación X, lo que significa que me ha tocado vivir en primera fila algunos de los cambios tecnológicos más radicales de las últimas décadas.
Crecí jugando con las primeras consolas de Atari, cuando la computación todavía era algo casi mágico y muy lejano para la mayoría de las personas. Luego… ¡boom!, vinieron las computadoras personales, el internet, los teléfonos inteligentes, el cloud computing… y ahora la inteligencia artificial generativa que recién inicia.
Haber recorrido ese camino deja inevitablemente el sesgo de creer profundamente en la tecnología y en su enorme potencial para hacer el bien, para ampliar nuestras capacidades y para abrir oportunidades que antes simplemente no existían. Pero, al mismo tiempo, presenciar tantas transformaciones me ha dado también cierta perspectiva sobre cómo cada gran ola tecnológica termina cambiando no solo lo que hacemos, sino también nuestro pensamiento sobre lo que significa ser humanos.
Por eso, cuando pienso en la inteligencia artificial, me interesa tanto lo que las máquinas van a ser capaces de hacer como lo que eso podría provocar en nosotros como personas.
Y es que, cuando una tecnología se vuelve omnipresente, normalmente pasa algo interesante en la cultura… aparece el deseo de lo contrario.
Pasó con la industrialización. Cuando todo empezó a producirse en masa, nació el valor de lo artesanal. Pasó con la comida. Mientras más dominaban los alimentos procesados, más valor empezaron a tener lo orgánico, lo local y lo hecho a mano, el slow food.
Pienso que algo parecido va a pasar con la inteligencia artificial.
La IA produce, o pronto llegará a producir, algo muy particular que yo llamaría “perfección estadística”: textos correctos, imágenes impecables, respuestas optimizadas, análisis sofisticados y profundos.
Pero, precisamente por eso, en un mundo lleno de contenido generado por máquinas y software, pienso que las personas, al menos de vez en cuando, vamos a empezar a valorar más las cosas profundamente humanas.
Las cosas imperfectas, las que no están optimizadas por un algoritmo, las que nacen 100% de una mente humana.
Como ese momento en el que uno dijo: “no sé exactamente cómo, pero esto puede funcionar”… y, contra toda lógica, funcionó. O el cuaderno lleno de tachones donde se apuntaron las ideas y presupuestos que luego se convirtieron en un nuevo negocio, una casa o un proyecto. O el dibujo de tu hijo, con cabezas y brazos gigantes, sin reglas de colores ni proporciones. O la receta de mi mamá escrita a mano en un papel desgastado.
Básicamente, las cosas tangibles que llevan una huella 100% humana.
Menos IA, más creatividad
De hecho, no me sorprendería que en algunos años aparezca una nueva etiqueta en los productos: “human-made” (porque de fijo será en inglés). Un libro escrito completamente por una persona, una pintura, una canción que tal vez no rime perfecto, pero que cuenta una historia profundamente humana.
Y no creo que esto nazca como nostalgia. Lo veo más bien como diferenciación.
Porque la IA está produciendo una abundancia casi infinita de contenido: artículos, imágenes, música, ideas, empresas, productos… y, cuando algo se vuelve infinito, lo escaso y lo exclusivo siempre ganan valor.
En ese contexto, el otro día hablaba con una amiga de que podría surgir algo que los influencers podrían llamar back to human, y que en Tiquicia posiblemente podríamos traducir como: “menos IA, más jupa…”.
Y ojo, no digo que esto signifique rechazar la tecnología. La IA será, queramos o no, parte integral y empotrada de nuestra vida cotidiana, como lo es hoy internet o los dispositivos móviles. Pero sí podría aparecer un gusto creciente por espacios donde la experiencia humana no esté completamente mediada por algoritmos, y donde la imperfección tenga un valor especial. Quién sabe, de pronto veremos negocios de “AI detox”, espacios donde, a propósito, se suspenda la asistencia algorítmica.
Lugares donde pensar, crear o conversar vuelva a ser una experiencia completamente humana… y altamente gratificante. No porque la tecnología sea mala, sino porque la mente humana también necesita pensar, necesita silencio, necesita prueba y error. Tal vez porque no todo lo valioso deba estar optimizado.
En un mundo lleno de inteligencia artificial, lo verdaderamente extraordinario podría seguir siendo ser humano.
Y lo que más me emociona es que en Costa Rica ya hasta tenemos el eslogan perfecto para ese mundo: Costa Rica, sin ingredientes artificiales.
Las opiniones expresadas en este artículo son responsabilidad del autor y no representan necesariamente la postura oficial de Primera Línea. Nuestro medio se caracteriza por ser independiente y valorar las diversas perspectivas, fomentando la pluralidad de ideas entre nuestros lectores.
Legal
GAFI y criptomonedas: O nos movemos o nos sancionan
RESUMEN
Si no resolvemos la recomendación del Grupo de Acción Financiera Internacional podríamos caer en una lista gris de países para los cuales el obtener crédito internacional es más difícil, los bancos extranjeros desconfían en interactuar y menos empresas querrán invertir en el país.
Costa Rica podría ver su reputación financiera afectada este año si no actuamos ya.
En 2024, el GAFI (Grupo de Acción Financiera Internacional) nos indicó que debíamos corregir el hueco en la regulación de las empresas que trabajan en criptoactivos, para evitar el lavado de dinero y financiamiento del crimen.
De no hacerlo, podemos caer en la lista gris, lo que implica una afectación tangible:
- Los préstamos internacionales del país salen más caros. Bancos y organismos internacionales cobran más intereses porque ven al país como “riesgoso”.
- Los bancos extranjeros desconfían. A los bancos de Costa Rica les cuesta más trabajar con bancos de afuera, o algunos simplemente cortan la relación.
- Enviar y recibir plata se vuelve lento y caro. Transferencias internacionales tardan más, cuestan más y a veces se bloquean “para revisión”.
- Menos empresas quieren invertir aquí. Los inversionistas prefieren países donde mover dinero y operar es más sencillo y predecible.
- Los exportadores y empresas formales son los más golpeados. Cobrar desde el exterior se complica, se atrasa el flujo de caja y se pierden negocios.
El GAFI nos vuelve a evaluar este año y, si no corregimos a tiempo, vamos a sufrir el impacto de caer en esa lista gris.

El expediente 22.837 era un intento para resolver esta situación, sin embargo, por diversas razones, a pesar de tener apoyo en el actual Congreso, quedó en el congelador y no se avanzó.
Este tema no se trata de que nos gusten o no las criptomonedas y los activos digitales. Ya existen empresas que trabajan en el intercambio, custodia y transferencia de criptomonedas y criptoactivos, por ende, deben estar registradas, vigiladas y con obligaciones claras contra lavado de dinero.
A nadie se le obliga a usar las criptomonedas ni se “legalizan” como monedas. Pero sí se evita que la falta de regulación nos genere problemas.
Se requiere un proyecto de ley similar (o el mismo 22.837 pero corregido) para reducir significativamente el riesgo de caer en la lista gris y así:
- Definir qué es un activo virtual.
- Definir quién es un proveedor de servicios.
- Someterlos a registro.
- Imponerles obligaciones de AML/CFT (Anti-Lavado de Dinero y Contra el Financiamiento del Terrorismo).
- Permitir la supervisión basada en riesgo.
Aunque este tema suene como algo sumamente técnico, necesitamos adelantarnos a este riesgo, porque podría traer afectaciones reales en las vidas de todos los costarricenses.
Las opiniones expresadas en este artículo son responsabilidad del autor y no representan necesariamente la postura oficial de Primera Línea. Nuestro medio se caracteriza por ser independiente y valorar las diversas perspectivas, fomentando la pluralidad de ideas entre nuestros lectores.
-
PolíticaHace 2 semanasDel otro lado de la libertad
-
PolíticaHace 3 semanasEl país no puede seguir preso de las expropiaciones
-
PolíticaHace 1 mesTurismo Legislativo
-
PolíticaHace 2 mesesCuando la seguridad social choca con la Constitución
-
PolíticaHace 2 semanasABC Legislativo: de mayorías, quórum y otros elementos