Un reto camuflado 


Una travesura y los peligros de la información producida por inteligencia artificial


Es frecuente escuchar que la inteligencia artificial es el futuro, cuando realmente es el presente. No tenemos que trabajar en ambientes de tecnología para encontrarnos con sus usos cotidianos: por ejemplo, cuando solicitamos un servicio por WhatsApp y mantenemos una conversación con un bot que nos da respuestas que simulan las de un ser humano, cuando Google nos corrige una falta ortográfica en un correo o nos sugiere un mensaje de despedida, o cuando Netflix y YouTube nos recomiendan videos. En las última semanas, una nueva plataforma de inteligencia artificial se ha introducido en el día a día de muchos usuarios. Esta es la plataforma gratuita ChatGPT. 

El ChatGPT es una herramienta de lenguaje natural desarrollada por OpenAI que permite a los usuarios conversar con un modelo de lenguaje entrenado en una gran cantidad de texto. Aunque esta herramienta puede ser muy útil en algunos contextos, también existe un riesgo de que sea utilizada de manera antiética.

Uno de los usos más preocupantes del ChatGPT es el de generar contenido falso o engañoso. Al proporcionar al modelo información falsa o parcial, se pueden generar respuestas engañosas, o incluso peligrosas. Por ejemplo, podría utilizarse para crear noticias falsas, o para difundir desinformación en línea. Otro uso antiético del ChatGPT podría ser el de abusar de la confianza de las personas. Al proporcionar una respuesta creíble a cualquier pregunta, el modelo puede hacer que las personas confíen en él y tomen decisiones basándose en información que no es precisa. Esto podría llevar a consecuencias graves, como la adopción de políticas públicas o decisiones empresariales equivocadas.

En resumen, el ChatGPT es una herramienta poderosa que puede ser muy útil en algunos contextos, pero también hay un riesgo de que sea utilizada de manera antiética. Es importante que las personas que utilizan este tipo de herramientas sean conscientes de sus posibles riesgos y tomen medidas para minimizarlos.

Como se menciona, es fácil abusar de la confianza de quien lee los textos producidos del ChatGPT. Si yo, como “autora” de este artículo no les confesara que el segundo, tercer, y cuarto párrafo que han leído fueron escritos por ChatGPT, es probable que ustedes no se dieran cuenta. La diferencia entre el primer párrafo, escrito por mí, y los siguientes, no es tanta como para diferenciar a la autora humana del bot. Y más importante aun es saber que no realicé nunca corrección de estilo o de gramática en los párrafos que el chat produjo. Los textos producidos por la inteligencia artificial son casi perfectos, y si tuvieran errores tampoco serían alarmantes, porque los humanos escribimos textos incoherentes y con equivocaciones todo el tiempo. 

Haber compartido que este texto es una coproducción abre la puerta a la desconfianza. Nuestros lectores ahora tendrán que dudar qué porcentaje de los textos que producimos en Jugo de Caigua son realmente escritos por humanos, y qué porcentaje se han producido en segundos por una tecnología gratuita e impresionante. Tal vez en nuestro manifiesto debamos incluir que no usaremos esta tecnología en nuestras columnas. O nuestros editores tendrán que indicar si en el futuro alguno de nuestros jugueros se decanta por pedirle ayuda a la computadora. 

Por mi parte, usar esta herramienta para haber escrito esta columna no es un alivio. Todo lo contrario. Es tentador tener párrafos coherentes escritos en segundos, pero es escalofriante darse cuenta de que nuestras ideas no son tan únicas como pensamos, y que una computadora puede expresarse mejor de lo que nosotros podemos hacerlo. Después de coescribir este artículo con ChatGPT no pienso en las horas que me voy a ahorrar, sino, más bien, en el esfuerzo que tengo que hacer para demostrar que mi inteligencia natural está a la altura de la inteligencia artificial. 

Desde Jugo de Caigua seguiremos produciendo textos humanos, con errores e incoherencias, pero humanos. Pero no podemos decir lo mismo de otras plataformas. Viendo lo bien que escribe en español el ChatGPT, no me queda ninguna duda de que muchos medios optarán por sus servicios gratuitos para llenar sus páginas, aunque no puedan clamar autoría. Como el mismo ChatGPT nos dice, esta herramienta se puede usar para dar información falsa, información que no ha sido revisada por humanos, o para producir documentos que influyen en la vida de las personas, como una legislación o una consulta médica. Los ejemplos de inteligencia artificial deficiente —como los bots de WhatsApp— nos han hecho creer que siempre podemos identificar a la inteligencia artificial por sus limitaciones, cuando en realidad dependemos de los autores para confirmarnos que sus entregas no han sido escritas por una computadora inteligente. Preocupante, ¿verdad?


Pensar, escribir, editar, diseñar, coordinar, publicar y promover este y todos nuestros artículos (y sus pódcast) cuesta y nosotros los entregamos sin cobrar. Haz click en el botón de abajo para contribuir y, de paso, espía como suscriptor nuestras reuniones editoriales.


4 comentarios

  1. Lucho Amaya

    PREOCUPANTE
    Es responsabilidad nuestra a qué páginas ingresar o seguir.
    Por mi parte (¡cuándo no!) solo sigo a Hildebrandt en sus trece, Jugo de Caigua, Zenda, y la algunas personalidades de confianza.
    Depende de uno, en mayor grado.
    … y, de hecho, no me di cuenta lo del segundo, tercer y cuarto párrafo… !!
    Saludos

  2. Es cierto, impresionante es lo que viene logrando ya la IA en muchas actividades de nuestro quehacer cotidiano y será absolutamente inevitable que nos suplante y nos supere: con la acumulación de información aprende, mejora y busca la perfección.
    No soy ningún listillo pero al leer esos tres párrafos algo sentí que chirrió y fue la repetición exacta de: » …un riesgo que sea utilizada de manera antitética.» en dos párrafos distintos.
    No sospeché que fuera artificial pero chirrió, ya aprenderá, paciencia.

  3. Miguel Ángel Guerrero

    Hace rato que las máquinas superaron al humano en precisión, fuerza y confiabilidad; en ajedrez, por ejemplo, no hay Gran Maestro, nacido de una madre, que supere la capacidad y velocidad de análisis de una computadora. ¿Podrá la IA crear obras de arte genuinas, originales y únicas o escribir grandes historias y novelas que nos emocionen y conmuevan?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

seis − dos =

Volver arriba