Inteligencia artificial generativa: los miedos y las esperanzas que asoman a la espera de las regulaciones.

Las dos caras de una misma moneda: riesgos y encantos de los sistemas que emulan la destreza de los humanos con habilidad creciente.

El auge de la inteligencia artificial generativa confirma la tradicional ambivalencia de la humanidad frente a las grandes novedades, que generan ilusiones y temores en un mismo movimiento. Sirve como antecedente la invención del ferrocarril, en plena Revolución Industrial. A comienzos del siglo XIX, esas máquinas que avanzaban velozmente sobre las vías despidiendo columnas de humo permitieron conexiones hasta entonces inauditas. Pero también fueron consideradas como diabólicas. En 1835, la Academia de Ciencias de Lyon notó que “el paso brusco de un clima a otro, al viajar en tren, produciría un efecto mortal en las vías respiratorias”.

La electricidad, el cine, Internet y el 5G también fueron, con el correr de los años, tecnologías tan adoradas como demonizadas. Amén de las teorías conspirativas de las que conviene apartarse, el despliegue de IA generativa —aquella que se encarga con eficiencia creciente de tareas típicamente humanas— indudablemente trae una serie de riesgos. Eso sí: los muchos peligros no deberían esconder el hecho de que estos avances también son potenciales maravillas, usinas de beneficios notables.

¿Cuáles son los riesgos que trae la nueva inteligencia artificial?

Incluso los más acérrimos defensores de la nueva IA no fingen demencia. “Mi peor miedo es causar grandes daños al mundo”, dijo el mismísimo Sam Altman, CEO de OpenAI, la firma detrás de ChatGPT, emblema de la IA generativa. Aquella declaración no debería ser leída como fuego amigo o culposo arrepentimiento. En cambio, el empresario subrayó la importancia de establecer regulaciones que operen sobre los desarrollos en el área.

Recientemente, un grupo de países liderados por Estados Unidos, China y la Unión Europea puso negro sobre blanco con la firma de la Declaración de Bletchley, el primer compromiso de gran alcance para regular los desarrollos de IA. “Este paso histórico marca el comienzo de un nuevo esfuerzo mundial para aumentar la confianza del público (en estas tecnologías), garantizando que sean seguras”, dijo en ese marco el primer ministro británico, Rishi Sunak. En el documento se enfatiza la necesidad “urgente de comprender y gestionar colectivamente los riesgos potenciales” asociados al uso de esos sistemas.

En paralelo a ese encuentro, la vicepresidenta de Estados Unidos, Kamala Harris, anunció la creación de un instituto en Washington que se abocará a la seguridad de la IA. Ese cuartel de la justicia new age reunirá a especialistas para el establecimiento de directivas y la evaluación de los modelos que se desplieguen entre los usuarios.

¿Cuáles son los peligros, inconvenientes y zonas oscuras que se asocian al uso de la IA generativa, que tantas alarmas activan? Los conflictos, veremos, son variados.

  • La problemática de la falta de transparencia: Es fundamental estar al tanto de las fuentes de información que usan los sistemas. Por caso, ChatGPT se ha entrenado con millones de artículos de la Web y en función de esos datos arroja respuestas y logra interactuar. En este punto, el riesgo radica en la opacidad. Es esperable que se exija a los desarrolladores que compartan, sin secretos, cómo entrenan a sus modelos.
  • Los derechos de propiedad intelectual, uno de los ejes del debate: ¿Los sistemas de IA generativa contemplan las obligaciones por el uso de contenido de terceros? Ya hemos visto conflictos por el empleo de material sin el debido reconocimiento de la fuente y pagos asociados a las leyes de copyright. Aquí, hay que tener en cuenta que estos modelos son capaces de crear, pero que no lo hacen desde cero. En cambio, se “inspiran” en información que absorbieron previamente. Por eso, si escriben un texto con el estilo del autor de Game of Thrones —por mencionar un caso que salió a la luz— lo que hacen es copiar. ¿Es válido hacerlo, sin hacerse cargo de las obligaciones?
  • Niveles de autonomía y patitas a la calle: Este es, acaso, el miedo más difundido. Además, es aquel que replica aquello que la humanidad sintió en los años de la Primera Revolución Industrial. ¿Qué peligros implica crear sistemas cada vez más independientes, que no necesitarán la intervención humana? ¿El avance de las máquinas dejará a las mujeres y hombres sin sus trabajos, pisoteando sus oficios? En relación con el despliegue de ChatGPT y afines, el célebre inversor Warren Buffett observó: “Pueden hacer todo tipo de cosas. Y cuando algo puede hacer todo tipo de cosas, me preocupo un poco”.
  • Preocupa la erosión de los límites entre las creaciones humanas y las artificiales: A medida que estas tecnologías avanzan, ¿somos verdaderamente capaces de determinar si el contenido que llega a nosotros fue creado por una persona o por una máquina? En ChatGPT desafía a la docencia, donde hablamos del creciente uso de la IA generativa por parte de alumnos para realizar trabajos escolares, hablamos a fondo sobre aquel interrogante.
  • Se esfuman las fronteras entre la realidad y la falsedad: La IA es muy hábil para generar contenido falso que, sin embargo, parece cierto. El paradigma de este problema son las deepfakes. Son falsificaciones profundas —pueden ser imágenes, videos o audios— que confunden a los espectadores sin grandes márgenes para entender si el contenido es veraz. Este asunto no es trivial y resulta especialmente peligroso en su vínculo con la desinformación malintencionada.
  • La violencia de las máquinas: Un aspecto no menor en el listado de riesgos asociados a la automatización, más que a la IA generativa, es la entrega de poder a los sistemas inertes. En criollo, en el ámbito militar ya se habla de robots armados hasta los dientes. ¿Qué ocurre en estos casos?  ¿quién es el responsable de los crímenes que cometa un autómata?

En función de esos problemas latentes; especialistas, autoridades y empresarios apoyan la aplicación de normas que regulen al sector, procurando desarrollos éticos y beneficiosos para la sociedad. Amén de los acuerdos más o menos generalizados, los desafíos son intensos. ¿Acaso las normativas son un obstáculo para la innovación? Hay quienes se encuentran en la vereda opuesta a la revisión: son los que opinan que los riesgos que derivan del uso de la IA son preferibles a las regulaciones.

Los encantos que promete (y ya cumple) la nueva inteligencia artificial

Hasta acá, hemos repasado los riegos asociados al uso de la IA general y generativa, por cierto variopintos. En la otra cara de la moneda fulguran numerosos favores de esas tecnologías. ¿Quién hubiese imaginado, pocos años atrás, que un chatbot conversaría con la destreza de un humano? Sistemas como ChatGPT y Google Bard pueden resumir textos en un abrir y cerrar de ojos, hacer traducciones eficientes y velocísimas, compartir recomendaciones, ayudar en tareas escolares. El listado de beneficios es extenso.

En el universo de la IA generativa también bailotean alegres los generadores de imágenes que trabajan en forma automatizada. Son igualmente encantadores: uno puede pedir cualquier cosa y ellos responden. Por ejemplo, pueden crear una foto que muestre cómo serán las Cataratas del Iguazú dentro de 100 años, o un retrato en el que veamos a Elon Musk masticando lodo. No importa qué tan bonitos o interesantes sean los resultados. Lo que sin dudas es una belleza es la posibilidad de pedir a una máquina que diseñe una escena que antes solo podíamos imaginar, o crear con softwares avanzados y conocimientos profundos.

La inteligencia artificial también exhibe facetas luminosas en campos como la medicina. Conforme avanzan los desarrollos en el área, nos enteramos de sistemas de IA para la detección temprana de enfermedades; una plataforma basada en esas tecnologías que permite cuidarse de las alergias en función de nuestra ubicación; y acá hablamos de una plataforma que usa estos avances para enseñar lengua de señas. También en este punto, la lista es extensa.

Hay más ventajas asociadas a la IA, en un recuento multifacético. Un emprendedor argentino usa estas tecnologías para una solución ecológica que barre la contaminación del agua. Una mujer de 83 años nos contó que transformó su dolor en poesía a través de la IA generativa. También nos divierten, al hablar como Messi, o sencillamente al traernos la evolución de las imágenes de gatitos. Un estudio reciente reveló que muchos usan la IA para divertirse.

Inteligencia artificial, igual que un martillo

En el marco de los recientes debates, la ministra de Tecnología del Reino Unido, Michelle Donelan, notó que la Declaración de Bletchley “muestra, por primera vez, que el mundo se reúne para identificar el problema y destacar las oportunidades de la IA”. Es interesante el énfasis en la dualidad. Oscuridad, pero también luminosidad.

Podemos pensar que la IA generativa corre la misma suerte que el martillo en el sentido que las consecuencias dependen del uso. La herramienta puede ser empleada tanto para la construcción como para la destrucción. Acá entra la regulación: partir la cabeza de un prójimo con una maza es repudiable y sancionable. Igualmente, un tren no debería ir más rápido que lo que establecen las normas, en Internet no se puede ir en contra de las políticas de las plataformas, y el 5G no debe usarse par dispersar desinformación. A todas esas tecnologías le caben regulaciones.

Digamos, finalmente, que esos límites necesarios no van en desmedro de los beneficios, en cada caso. El tren transporta, Internet comunica, entretiene e informa. ¿Qué pasará con la IA cuando sea regulada? Es de esperar que sea puesta en un sitio que no le permita ir allí donde pueda dañar y que, no obstante, tenga espacio suficiente para seguir ofreciendo sus delicias.

 

 

 

 

 

0 Comentarios