La administración ética de la inteligencia artificial es importante y urgente
Sasha Brown (Reino Unido), es especialista en ética de la inteligencia artificial (IA). Ayudó a formar el equipo de Ética y Sociedad en DeepMind, el laboratorio de investigación de inteligencia artificial de Google y ahora trabaja para garantizar que la investigación de DeepMind y las aplicaciones que impulsa tengan un impacto positivo en la humanidad.
La inteligencia artificial (IA, por sus siglas en inglés) permite que las computadoras resuelvan problemas que solían afrontar los humanos, solo que más rápidamente y a mayor escala. Es probable que interactúes con la IA en tu vida diaria, a menudo sin saber que está ahí: impulsa los motores de búsqueda que usas, el asistente de voz en tu teléfono y las recomendaciones de compras que se te presentan en línea.
La IA tiene el poder de ayudar a la humanidad a resolver algunos de los misterios más profundos del universo y a abordar los desafíos más urgentes del mundo, desde el cambio climático hasta la atención médica. Entre otras cosas, ya se está utilizando para descubrir fraudes financieros, detectar el cáncer con mayor precisión que los radiólogos capacitados y reducir el uso comercial de energía.
Pero, como muestra la historia, la innovación tecnológica no es garantía de progreso social. Cuando la IA no se desarrolla o implementa de manera responsable, causa serios daños en la vida real.
La mayor parte de la investigación moderna de IA se centra en una técnica llamada «aprendizaje automático» (machine learning) en la que las computadoras analizan grandes cantidades de datos para completar una tarea en particular. Los datos utilizados para «enseñar» a la IA dan forma a sus decisiones futuras. Si los datos utilizados para entrenar a la IA están sesgados, las decisiones de la IA estarán sesgadas. Y una IA sesgada puede tomar decisiones que perjudiquen a determinados individuos y comunidades.
Este no es un problema meramente teórico. El sistema judicial de Estados Unidos utiliza una herramienta impulsada por inteligencia artificial que predice la probabilidad de que los acusados reincidan. Los jueces tienen en cuenta esta predicción al decidir la sentencia de prisión. Un estudio independiente del algoritmo encontró que el modelo predijo el doble de falsos positivos por reincidencia si el acusado era negro (45%) que si era blanco (23%). Este sesgo no se ha construido conscientemente en la IA, pero es un efecto secundario del uso de datos de un mundo sistemáticamente sesgado.
A veces las propias empresas tecnológicas pasan por alto el impacto que el sesgo del mundo real puede tener en los conjuntos de datos. En 2015, Amazon descubrió que el algoritmo que estaba utilizando para ayudar con las decisiones de contratación estaba sesgado a favor de los hombres. Se reveló que esto se debía a que el conjunto de datos utilizado para entrenar el modelo reflejaba un sesgo histórico: los anteriores postulantes a los puestos tenían el doble de probabilidades de ser hombres y, por lo tanto, se contrataba a más hombres que mujeres. Lo que es particularmente peligroso es que las personas a menudo creen que el sesgo es una característica totalmente humana y asumen que las decisiones de las máquinas son más neutrales y confiables.
Pero eliminar simplemente de los conjuntos de datos la información sobre atributos sensibles —como raza, género y sexualidad—no soluciona los problemas de sesgo. En 2019 se descubrió que un algoritmo que se estaba utilizando para asignar atención médica adicional a los pacientes de hospitales de Estados Unidos ofrecía más cuidados a los pacientes blancos que a los pacientes negros igual de enfermos. Cientos de millones de pacientes recibieron atención mediante este algoritmo que condujo a resultados en la vida real que exacerban la desigualdad existente. El conjunto de datos que entrenó al modelo no incluyó la raza en sí, pero sí incluyó el historial de costos de atención médica del paciente, que resultó estar correlacionado con la raza.
El problema del sesgo a menudo se ve agravado por la falta de transparencia: las empresas rara vez quieren compartir los detalles de sus algoritmos públicamente, por razones comerciales. Actualmente la inteligencia artificial ya se utiliza para decidir a quién se muestra qué anuncio de trabajo, a quién se contrata y a quién se le concede la libertad condicional.
Además del sesgo, existen muchos otros riesgos potenciales que resultan de la inteligencia artificial. Estos incluyen, por ejemplo, la invasión de la privacidad y la capacidad de usar la información personal de formas cada vez más intrusivas, difundir información errónea en formas que socavan la democracia, y la posible exacerbación de la desigualdad a medida que la automatización cambia la naturaleza y el volumen de los trabajos disponibles.
Si la IA cae en las manos equivocadas, también puede usarse para causar daño. Por ejemplo, para crear armas poderosas y sistemas de vigilancia para dañar a grupos étnicos específicos.
Para crear una inteligencia artificial beneficiosa, la gobernanza ética de la tecnología debe estar presente durante todo el proceso de desarrollo e implementación y debe verse como parte integral de la planificación de cada proyecto de investigación o aplicación de IA. Lo primero que debe considerarse es el mapeo de todos los beneficios y riesgos potenciales de un proyecto. Los aportes deben provenir de voces con experiencia en el área relevante, de personas de diversos orígenes y, si es posible, de aquellas que podrían ser más vulnerables a los daños como resultado del proyecto. Las posibles mitigaciones de cualquier riesgo deben explorarse, e implementarse si son efectivas. La opción de no desarrollar o implementar un proyecto de IA siempre debe estar sobre la mesa si el análisis sugiere que los posibles beneficios no superan el riesgo, si es probable que la IA cause un daño significativo, o si el impacto podría ir en contra de normas internacionales de derechos humanos. La probabilidad y la escala de estos beneficios y riesgos deben tenerse en cuenta al compararlos entre sí.
La administración ética de la IA es importante y urgente: con una tecnología tan poderosa como esta, es difícil resolver los problemas a posteriori. Los inventores de automóviles aprendieron de los accidentes automovilísticos y, con el tiempo, adoptaron cinturones de seguridad para reducir el riesgo de daños. Con la IA no podemos darnos el lujo de aprender y adaptarnos luego de ver el impacto en el mundo real: una vez que la tecnología dañina está en las manos equivocadas, no es posible recuperarla.
La inteligencia artificial le dará forma a todas las facetas del mundo del mañana, incluidas la economía, la guerra, la medicina, la seguridad, la energía y la geopolítica. Lo que está en juego es enorme y los beneficios solo se materializarán si los creadores centran sus esfuerzos en los avances que tendrán un impacto positivo y se aseguran de que su trabajo se lleve a cabo con los más altos estándares.
(*) Artículo escrito en inglés por Sasha Brown, y traducido al español por Alberto de Belaunde.
Excelente articulo Sasha. Todos los días se aprende algo y no sabia de la importancia de la IA en nuestras vidas.
Muy buen articulo, sobre la inteligencia Artificial (IA) y cómo es utilizada en la vida cotidiana, la decisión debe basarse en evidencia, pero no es sesgos, saludos