Una tecnología revolucionaria que necesita regulación

Gerald Salazar es un físico y comunicador con más de 10 años de experiencia en fuerza laboral STEM y gestión de I+D. Ha liderado iniciativas de divulgación científica y ciencia de materiales. Actualmente se enfoca en computación cuántica y tecnologías emergentes. Es director ejecutivo de la Asociación Clubes de Ciencia Perú.
Podemos decir que nuestra experiencia con la inteligencia artificial se está volviendo cada vez más transparente, inmediata e integrada en actividades cotidianas. Hace menos de dos años, ChatGPT fue lanzado al público, permitiendo el acceso de millones de personas a tecnologías basadas en algoritmos de aprendizaje supervisado, no supervisado y generativo, a través de una interfaz conversacional. De ahí el nombre de ChatGPT, por sus siglas en inglés: Chat Generative Pre-trained Transformer. Es decir, un transformador generativo pre-entrenado diseñado para mantener conversaciones en lenguaje natural.
Su éxito ha sido enorme y ha llevado a que distintos sectores de la sociedad comienzan a demandar la integración de la inteligencia artificial en diversas actividades, como la educación, los negocios o la gestión pública. Esta situación recuerda mucho a los primeros años de la incorporación de las tecnologías de la información y la comunicación (TIC), que llegaron con la promesa de “democratizar” la capacidad de las personas para comunicarse directamente, eliminando a los intermediarios tradicionales —como la televisión, la radio o los periódicos— en el caso de los medios de comunicación.
Sin embargo, aquella promesa no se cumplió del todo: ni se democratizó la comunicación, y en cambio nos trajo la proliferación de noticias falsas y saturó internet de contenido basura. Algo similar podría suceder con la IA.
El discurso oficial presenta la inteligencia artificial como una herramienta de productividad donde todos podremos tener acceso a ella y revolucionará el mundo. Sin embargo, y muy a pesar de los comerciantes, tecnócratas, consultores y políticos, que ven en la IA un nuevo negocio para mantener su estatus o influencia social, hay puntos grises que son importantes de reflexionar en el uso de la IA y su integración en la sociedad. No debemos olvidar, que muchas veces, no es solo la tecnología la que ingresa en nuestras actividades, sino los incentivos económicos e ideología que la produjeron.
El capitalismo definió a la propiedad privada, y por tanto la propiedad intelectual, como un pilar de su modelo político e ideológico. Sin embargo, parece ya no ser tan inmaculada para las grandes grandes corporaciones que alimentándose de toda la producción intelectual de la humanidad, desarrollaron herramientas como ChatGPT. Sugiero leer la entrevista a Karlos G. Liberal en El Salto [1], un hacker de la vieja guardia, describiendo las tensiones culturales y sociales de la IA.
En las aplicaciones gratuitas, el producto somos nosotros, ya que al compartir libremente nuestros comportamientos, preferencias y datos personales, las empresas generan ingresos comercializando estas tendencias. El enorme poder que han acumulado las corporaciones tecnológicas se basa precisamente en la información que nosotros mismos les hemos entregado voluntariamente, muchas veces sin plena conciencia de su valor, o sin regulaciones de cómo serán utilizadas.
Se ha ido mostrando que los algoritmos convencionales están influenciados por sesgos, desigualdades históricas y jerarquías sociales embebidas en su diseño (ver nota sobre el ingreso del ADN de 130.000 niños migrantes en una base de datos para criminales [2]). Sobre este sustrato, el enfoque actual de los algoritmos es paternalista, pues ya no somos nosotros quienes filtramos, ordenamos o decidimos qué queremos consumir, leer o escuchar. En su lugar, es un algoritmo —diseñado para maximizar los ingresos de la empresa que lo creó— el que toma esas decisiones por nosotros.
La Unión Europea es un ejemplo en el impulso de regulaciones sobre los algoritmos de inteligencia artificial, siendo una de los primeros bloques geopolíticos en implementar un marco normativo al respecto. Sin embargo, estas regulaciones han sido calificadas como tibias, en parte debido a la presión del lobby empresarial en Bruselas que considera que estas normas podrían limitar la innovación en el área.
Adicionalmente, a pesar de su aparente accesibilidad —a solo un clic de distancia para resolver tareas cotidianas—, la inteligencia artificial ha escalado hasta convertirse en un asunto geopolítico de primer orden. Este nuevo escenario será un espacio de disputa política, en el cual los ciudadanos no podemos permanecer al margen. Hay tres hechos que a mi entender, muestran que la IA y uso es también un espacio de tensión política.
Primero: El optimismo del presidente Emmanuel Macron, en la Cumbre de Inteligencia artificial (IA) que se celebró en París en febrero de 2025, tuvo una respuesta áspera del vicepresidente de EE.UU. J.D. Vance, atacando la excesiva regulación de la IA de la unión. Choque de visiones entre dos aliados de la OTAN, enmarcados en un mundo con dos guerras que empujan el militarismo excesivo y a la vigilancia continua usando la IA.
Segundo: Elon Musk —dueño de X (antes Twitter) y Tesla, y principal financiador de la campaña para un segundo mandato de Donald Trump en Estados Unidos— logró ser designado como «empleado especial temporal del gobierno», ubicándose en la cima de la gestión pública estadounidense y obteniendo acceso a datos sensibles de los ciudadanos. Su reciente y amarga ruptura con el presidente de EE.UU., no debe distraernos que su principal legado será el camino libre para que, bajo el amparo de la ideología del solucionismo tecnológico, el retirar beneficios sociales no tenga un costo político significativo. Ni hablar del enorme conflicto de interés que implica ser financista de una campaña política del presidente, tener contratos con el gobierno, y luego desmontar la administración pública encargada de definir las regulaciones de esos mismos contratos.
Tercero: El 10 de mayo, la Oficina de Propiedad Intelectual de EE.UU. concluía en un reporte que la excepción al uso justo (fair use) no aplicaba al entrenamiento comercial para los algoritmos de IA, como por ejemplo ChatGPT de OpenAI. Dos días después, Donald Trump despedía al director de esa Oficina [3].
A dos primeros años del lanzamiento de ChatGPT, comenzamos a ver los primeros claroscuros en la vida social y política en la sociedad. ¿Qué vendrá después?
[1] https://www.elsaltodiario.com/tecnologia/entrevista-karlos-g-liberal-patxangas-algoritmo-cyberpunk
[2] https://www.wired.com/story/cbp-dna-migrant-children-fbi-codis/
[4] https://www.reuters.com/legal/government/trump-fires-head-us-copyright-office-2025-05-12/
¡Suscríbete a Jugo haciendo click en el botón de abajo!
Contamos contigo para no desenchufar la licuadora.