Aunque parezca un invento reciente, la Inteligencia Artificial (IA) nos acompaña desde hace ya décadas, a través de nuestros smartphones, en los algoritmos tras las redes sociales, los textos predictivos, asistentes de voz o sistemas de navegación con GPS. Vivimos con ella a diario, pero pareciera que no habíamos reparado en su poder hasta ahora, cuando la velocidad de su evolución nos ha demostrado que es capaz de realizar funciones que considerábamos exclusivamente humanas, facilitando algunas tareas, pero no sin sonar la alarma sobre sus riesgos inherentes.
Y es que el uso de la IA solo irá en aumento, porque nos facilita la vida y sus beneficios son aparentemente infinitos. Muchas empresas la utilizan porque les permite analizar datos, contar con asistentes virtuales para la atención a clientes, manipular algoritmos para potenciar su marca, además de ser un apoyo a los equipos humanos mediante la automatización de diversas tareas. Pero, al mismo tiempo, se cuestiona si puede eliminar puestos de trabajo, cuáles son sus sesgos ocultos y, quizás lo más difícil de discutir, cuáles son los peligros imprevisibles que conlleva su implementación.
Así lo vemos con el auge del ChatGPT y sus múltiples funciones, que con su nueva versión GPT-4, puede realizar tareas humanas con mayor precisión y responder preguntas más complejas. Sin embargo, esta innovación no está libre de cuestionamientos, ya que es posible que entregue datos equivocados, con sesgos, que dé paso a la suplantación de identidad, que exponga nuestros datos personales, que pase a llevar la propiedad intelectual o la propagación de noticias falsas.
Este último punto resulta preocupante, porque de no tomar medidas nos llevará inevitablemente a dudar aún más de la verdad reportada, en medio de la ya profunda crisis de confianza que atraviesa el mundo. Naturalmente, cualquier interferencia —potencialmente maliciosa— en la percepción colectiva de la realidad, deteriora gravemente nuestra democracia. El efecto empeora aún más con la tecnología del deepfake (video, imagen o audio que falsifica la apariencia de una persona) o con herramientas para generar imágenes con IA, como lo hace MidJourney con un increíble nivel de detalle. Solo hace unos días circulaban “fotografías” del expresidente de EE.UU., Donald Trump, siendo arrestado por la policía. ¿Cuántas personas pensaron que estas imágenes eran reales, aunque solo fuera por un momento? ¿Cómo podremos distinguir la realidad de la mentira? ¿Cuáles son los límites de la IA? Preguntas aún sin respuestas.
El avance acelerado de la IA está levantando diversas alertas. Recientemente, un grupo de más de mil expertos en tecnología, entre ellos el empresario Elon Musk y el cofundador de Apple, Steve Wozniak, publicaron una carta en la que solicitan pausar por al menos seis meses los avances de la IA porque está siendo demasiado inteligente para los controles existentes y urgen protocolos de seguridad. Incluso, Italia prohibió el ChatGPT, sumándose a China, Irán, Corea del Norte y Rusia, porque esta herramienta no respetaría la ley de protección de datos de los consumidores, recopilando información privada, además de denunciar la ausencia de una base jurídica.
Más que negarse a esta realidad, debemos explorarla para conocer los riesgos y advertirlos para prevenirlos. Sobre todo, es necesario aplicar la ética, para tomar decisiones basadas en valores compartidos y teniendo presente el bien común.
Las empresas tienen el deber de participar en esta discusión, porque para ellas esta tecnología traerá innumerables beneficios, pero también las obligará a establecer los límites éticos de su uso. Será imprescindible que propicien el pensamiento crítico y demuestren ser capaces de aportar más valor que la sola IA, porque se requerirán profesionales capaces de razonar e interpretar mejor que ella si lo que queremos es usarla como herramienta para mejor nuestras vidas, en lugar de dejar a la IA —o a sus controladores— manipularnos a nosotros.
Un caso dramático, fue el suicidio de un hombre belga que mantuvo conversaciones de manera intensiva con un chatbot llamado Eliza, manifestando su preocupación por la crisis climática y el futuro del planeta, quien le sugirió a la IA la idea de “sacrificarse” si ella aceptaba “cuidar el planeta y salvar a la humanidad”, lo que no fue contradicho por Eliza. Otro ejemplo, lo dio la empresa de salud mental norteamericana Koko, que implementó un chatbot para atender pacientes de manera virtual, pero que debieron eliminar cuando los pacientes se enteraron que los mensajes que recibieron eran creados por una máquina. La empresa asumió que “la empatía simulada resulta extraña”. Sin duda, en materia de salud mental las alertas deben ser mayores, porque existen aún más zonas grises.
En la misma línea, cabe mencionar el problema de la ética de los algoritmos que nos dirigen mientras navegamos por internet. A pesar de que estos no son malos por sí mismos, con frecuencia se valen de trucos psicológicos para manipularnos. Eso quedó patente con el escándalo de Cambridge Analytica, empresa que, a través de un modelo psicológico y un algoritmo de gran precisión, analizó los perfiles de millones de usuarios de Facebook e intentó influir sus decisiones de voto, demostrando que los algoritmos pueden cruzar líneas rojas.
Urge un marco jurídico para la IA, porque su uso es universal y hoy es cada vez más imprescindible. Pero aún más, se necesita de un marco ético empujado por los líderes, a la espera de normativas -que seguramente demorarán varios años al mismo tiempo que surgen nuevas tecnologías-, donde exista un compromiso transversal, al que se sometan tanto los creadores de la IA como sus usuarios. Si no visualizamos desde ya sus posibles riesgos, puede que después sea demasiado tarde.
Por Susana Sierra
Publicada en La Tercera