Los riesgos de tomar atajos en adaptar tecnología
En estos tiempos se habla mucho sobre la inteligencia artificial. Uno de los grandes debates versa sobre cuáles y cuántos empleos reemplazará, cuándo lo hará y si nos quedaremos sin trabajo en el camino. El paraíso de poder vivir sin trabajar, recibiendo ingresos universales y básicos y pudiendo ocupar nuestro tiempo en aquello que nos divierte no se vaticina como el futuro cercano —o lejano— de la inteligencia artificial. Les pido entonces permiso para decepcionarlos con un tema más pedestre: ¿en qué medida están siendo utilizados los software de “inteligencia artificial” en nuestras relaciones cotidianas de consumo?
Escribo “inteligencia artificial” entre comillas porque realmente lo que estamos utilizando ahora son algoritmos que responden a una evaluación ¡a casi la velocidad de la luz! de una cantidad enorme de datos disponibles. A partir de esa rauda operación, son capaces de predecir una respuesta. Esto requiere una rapidez de procesamiento de datos altísima y ello resulta posible debido a los avances en la tecnología de producción de chips. Si la palabra Nvidia les suena a envidia, pues, bueno, Intel probablemente envidia a los dueños de Nvidia, que produce el tipo de chip más apropiado para software de “inteligencia artificial” o IA. O mejor LLM, por el inglés Large Language Models, que es el estado de IA con que más interactuamos.
Volvamos a nuestro tema: nuestra relación cotidiana con la IA. Quienes escribimos, usamos procesadores de palabras que nos recomiendan mejoras; otros usamos algún software que sugiere esos cambios —digamos, Grammarly—. Algunos ya estamos haciendo consultas a Copilot, otros a Gemini y, para muchos, IA es ChatGPT. Pero softwares de IA existen, diría, en una cantidad aproximada de miles.
Aunque no trabajemos en actividades que requieran un uso intenso de hardware y software, también nos relacionamos con IA. Ello ocurre, por ejemplo, cuando queremos hacer una compra en línea —sea para envío a domicilio o recojo en tienda— y aparece una ayudante virtual —suele ser fémina, dicho sea de paso— con quien podemos intercambiar mensajes. Se suelen llamar BOT, tomando solo la última sílaba de la palabra robot, cuyo significado, siguiendo a Saussure, es nada humano.
En este punto es donde, en países como el nuestro, comenzamos con los problemas. Atendemos a la invitación a comunicarnos con la empresa a través de su ayudante virtual y hacemos una consulta que dicha ayudante no necesariamente está entrenada para contestar satisfactoriamente. Porque ese BOT responde a la programación hecha por un humano y ha sido entrenado con una determinada cantidad de datos y, probablemente, posee pocos datos con los que preparar una respuesta para nuestra pregunta específica. Ese BOT está entrenado para proporcionar respuestas adecuadas ante preguntas generales o aquellas más frecuentemente realizadas. Si por ahí tu tema es uno muy especial, muy específico, muy infrecuente, va a pasar un montón de tiempo hasta que logres hablar con un humano y obtener una respuesta relativamente satisfactoria.
¿Qué pasa en el camino? Nos decepcionamos de la empresa y de la tecnología.
Otra manera con la cual interactuamos con la IA cotidianamente es mediante los perfiles que hacen de nosotros las empresas, sea para vendernos productos o para calificarnos en un perfil de riesgo, sea de pago o de salud. Las empresas ya están llevando a cabo esa clasificación con objetivos prácticos y mercantilistas. Tenemos que recordar que cuando un producto es gratis para nosotros, como las redes sociales, eso quiere decir que el producto somos nosotros y también nuestros datos, que están siendo utilizados con fines comerciales. Cada vez que aceptamos Términos y Condiciones estamos permitiendo el uso de nuestros datos personales para comerciar o para entrenar al software de IA.
En este contexto, la Casa Blanca, el Ejecutivo de los Estados Unidos, ha producido unos lineamientos —denominados Código de Derechos— que tienen que cumplir las empresas que están utilizando inteligencia artificial. Contienen solo cinco principios potentes, a saber: sistemas seguros y efectivos, protecciones contra discriminación algorítmica, privacidad de datos, aviso y explicación y, finalmente, la combinación de alternativas humanas, consideraciones y respaldo.
En el Perú, contamos con la ley de protección de datos personales que data de 2011 y que no necesariamente está adaptada al avance tecnológico que es la IA. Hasta que emitamos nuevas leyes, este Código podría ayudarnos a sentar las bases de una relación mejor informada con los consumidores cada vez que las empresas utilizan IA.
¡Suscríbete a Jugo haciendo click en el botón de abajo!
Contamos contigo para no desenchufar la licuadora.