Inteligencia artificial: ¿Podría superar la razón y las emociones humanas?

  • Cómo será el futuro de la tecnología más avanzada del momento
  • Su uso en medicina, prevención y finanzas
  • Su aprendizaje de las neurociencias
  • Miedos y expectativas

El desarrollo tecnológico más prometedor del último lustro es la Inteligencia Artificial Generativa (IAG), un avance que, en términos coloquiales, se percibe como un nuevo amanecer para la investigación científica pero también, como una sombra que amenaza el futuro de la humanidad.

O sea: luces y sombras por igual. Así, en una de las caras de la moneda -la luz-, se refleja la capacidad de estos sistemas para extender la edad cronológica mediante fármacos personalizados, diagnósticos más puntuales, nuevas vacunas, detección de enfermedades tempranas y el análisis de imágenes médicas, pruebas genéticas o historiales de salud.

Pero por el otro -la sombra-, la pérdida de trabajo y la desconfianza que inspira, aparecen entre las principales inquietudes. Y en un terreno casi distópico, el terror a que forje su propia conciencia y se convierta en un recurso que en lugar de asistir a las personas se dedique a exterminarlas.

Existe el terror de que la Inteligencia Artificial forje su propia conciencia y extermine a las personas.

“No hay que tenerle miedo a la IA, pero sí respeto. Tampoco creo que se vaya a liberar un ente de la computadora que patrulle las calles como un Terminator, porque técnicamente no opera con esa lógica. Lo que puede suceder es que haya personas que le den usos indebidos y eso sí me asusta. Por eso es necesario que se la regule”, explica Tiago Sada, de Worldcoin, el proyecto de criptomonedas liderado por el epresario estadounidense Sam Altam.

Más allá de sus bondades y contraindicaciones, la IA está atravesando su “etapa de lactancia”. Lo que implica que investigadores, desarrolladores, la industria, el comercio, las finanzas, la legislación y la sociedad en su conjunto, tendrán que calibrar su brújula hacia este norte magnético.

“Yo no me fiaría de ningún pronóstico que enlace con el futuro, porque no creo que tengamos la imaginación suficiente para saber hacia dónde se dirige este rumbo. Siempre que aparece una nueva tecnología, se desarrolla de formas que no podemos predecir”, afirma Terrence Sejnowski, neurobiólogo de la Universidad de California en San Diego.

Hablemos entonces de lo que podemos prever: luces y sombras.

El giro menos esperado

En teoría, el campo de acción de la Inteligencia Artificial eran las tareas repetitivas, ya que, con la automatización, se adquiría una mayor productividad. Pero con la inflexión de la IAG, a comienzos de 2022, los oficios creativos también comenzaron a perder el equilibrio.

El material de la IAG (Inteligencia artificial generativa) proviene de conversaciones, historias, imágenes, videos o música, a partir de datos o instrucciones previas. Su instrumento de trabajo son los algoritmos que le permiten asimilar los patrones y la estructura de los datos para obtener una respuesta a cada interrogante.

El paradigma de este cambio es la famosa aplicación ChatGPT que puede generar contenidos coherentes, originales y a veces sorprendentes. Aunque el resultado que replica no es mágico, ya que depende de las instrucciones (prompt) que se le ingresen. Si la pregunta es vaga, las conclusiones también lo serán.

“La IA tiene muchísimo tiempo entre nosotros. No se trata de un hallazgo reciente: cuando se lanza ChatGPT, se instala en la escena cotidiana porque nos da la posibilidad de interactuar por primera vez con la tecnología y eso lleva a que las reglas de juego cambien por completo”, señala la argentina Mónica Talán, fundadora de CryptoConexión, una plataforma que impulsa conciencia y participación en la economía descentralizada.

La Unión Europea acaba de aprobar la primera ley para regular los usos de la Inteligencia Artificial.

Una de las mayores virtudes de la IAG es su capacidad de síntesis. Cuando se inauguró la era de Internet, la información, que circulaba por sus redes, era muy escasa. Pero luego, comenzó a proliferar por todos los rincones de la web y se fue acumulando por 30 años a ritmo de chatarra.

“El problema actual es que, de la pila de resultados que te arroja Google, uno no sabe con cuál de todas las piezas quedarse. La mitad están optimizados para SEO y la otra parte quedó desactualizada. La gran contribución de las IAG es obtener una respuesta sencilla y directa. El software tiene la capacidad de descartar los sobrantes y resumir lo primordial”, advierte Tiago Sada.

La gran maestra

La IA se inspira en la neurociencia para diseñar modelos que emulen las capacidades cognitivas humanas, como el aprendizaje, la memoria, el razonamiento, la percepción o el ingenio.

Por ahora, la única característica que sintetizaron con éxito fueron las unidades más simples, que son comparables a las neuronas. En lugar de transmitir la información mediante impulsos nerviosos recurren a las matemáticas.

Los algoritmos ejercitados en el sube y baja de la economía son aptos para evaluar patrones y tendencias de mercado, entre otras cosas.,

Mientras las neuronas se organizan en redes complejas y dinámicas, que pueden cambiar según la experiencia y el aprendizaje, las redes digitales suelen tener una arquitectura más estática y predefinida, que se basa en el entrenamiento.

Sin embargo, la complejidad computacional del cerebro está condicionada por la biología y su capacitación - a través de la palabra o los sentidos- a otras entidades.

En cambio, los sistemas de IA continúan evolucionando y pueden intercambiar datos a velocidades notablemente superiores.

El obstáculo que debe sortear ChatGPT y otros modelos lingüísticos es que aún no pueden fijar objetivos porque no poseen una memoria a largo plazo. Sin embargo, los neurobiólogos afirman que es uno de los futuros posibles para estos adelantos.

En este sentido, algunos expertos consideran que, en algunos ámbitos, ya superó a la inteligencia humana. Sin embargo, al carecer de un aprendizaje adaptable, no consigue trasladar lo asimilado a otras actividades y tareas para las que no hayan sido adiestradas.

“Nuestro cerebro tiene 100 billones de conexiones. Los grandes modelos lingüísticos tienen hasta medio billón, o un billón como mucho. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Quizá tenga un algoritmo de aprendizaje mucho mejor que el nuestro”, opina el informático inglés Geoffrey Hinton, pionero del Deep Learning que trabajó una década en Google.

El gran combustible

Los datos son el combustible que abastece a estas inteligencias sintéticas, ya que les permite aprender y mejorar su rendimiento. Pero estos inputs también pueden ser su mayor flaqueza. Sobre todo, si son escasos, erróneos o están contaminados por algún escrúpulo.

Los sesgos son distorsiones que afectan la calidad de los resultados. Pueden provenir de la colección de datos escogida para su entrenamiento o llegar a través de los algoritmos con los que fueron programados.

Estos prejuicios pueden promover discriminación, exclusión e injusticias hacia ciertos grupos sociales por motivos de género, raza, edad u otros factores. Pero también, servir para propagar la desinformación.

El conflicto se profundiza cuando estos sesgos se cultivan para manipular decisiones, moldeando las preferencias del consumidor al plantar intereses ajenos, lo que se conoce como sesgo cognitivo. Aceptar recomendaciones sin cuestionarlas puede conducir a la desinformación.

“Los sistemas de IA se están volviendo bastante buenos en predecir lo que te gustará, pero ¿debemos confiar siempre en estos métodos automatizados? Sin duda tienen sus beneficios, pero es crucial mantener nuestro juicio independiente y la capacidad de toma de decisiones”, aclara Steffan Black, experto tecnológico en la empresa Zen-Shield.

Por eso, expandir la confianza será un desafío clave, a fin de evitar los potenciales efectos negativos que pueden impulsar que se salga de control.

La consultora Gartner predice que para 2026, las empresas que apliquen un programa integral de gestión de confianza, riesgo y seguridad de IA “aumentarán la precisión de su toma de decisiones al eliminar hasta el 80% de la información defectuosa e ilegítima”.

El marco regulatorio

Entre los escenarios posibles, el menos satisfactorio considera que la IA pueda ser concebida con fines maliciosos o que afecte la ética y los valores de las personas. Por eso, muchos defienden la necesidad de regularla y usarla de manera responsable y sostenible.

El desafío es lograr que los sistemas de IA sean más transparentes, comprensibles y confiables, tanto para los desarrolladores como para los usuarios, a través de herramientas que permitan examinar la cadena lógica de sus derivaciones.

“Uno de los aspectos que merece atención es la transparencia en los algoritmos. A medida que la IA se vuelve más sofisticada, es crucial comprender cómo toma decisiones para evitar sesgos y discriminación. A su vez, la privacidad debe ser una prioridad, asegurándonos de que la recopilación y el uso de datos se realicen de manera ética y respetuosa”, precisa Talán.

Para la UNESCO, la IA no debería ser una zona sin ley, ya que se considera que su influencia puede impactar directamente en las vidas de las personas.

A nivel mundial ya se están implementando acciones para establecer un marco regulatorio. El reporte del Índice de la inteligencia artificial 2023 de la Universidad de Stanford muestra que, según los registros legislativos de 127 países analizados, 31 ya han aprobado una ley relacionada y se han decretado más de 125 normas a nivel global.

“Para lograr el camino hacia una regulación para su uso responsable el primer paso será dimensionar la magnitud de esta tecnología y comprender sus diferentes áreas de impacto. No se trata de prohibir o limitar su utilización, se trata de acompañar esta evolución de manera responsable y para esto se requerirá de un esfuerzo conjunto de gobiernos, empresas y de la sociedad civil”, sugiere Talán.

La Unión Europea acaba de aprobar la primera ley para regular de forma completa los usos de la IA y esto abre un nuevo capítulo que será eje de debate indiscutido durante este año: la ética, el uso responsable de la IA y su posible regulación.

“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha señalado mientras tanto el comisario de Mercado Interior de la UE, el francés Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”.

Principales direcciones

No hay un argumento preciso que indique cuál será el sucesor de la IAG, ya que esto dependerá de los factores tecnológicos, científicos y sociales que se avecinan. Sin embargo, algunos expertos han propuesto tres direcciones o tendencias que podrían signar esta evolución.

IA híbrida: es lo que se aproxima en el corto plazo, ya que es una forma de procesamiento que reparte sus tareas entre la nube y el dispositivo (móvil o de escritorio) para ser más eficiente.

Lo cual convierte a estos circuitos electrónicos en el complemento ideal para mejorar la conducción autónoma, analizar los gestos y la actitud del cliente en tiempo real, reducir los plazos de los tratamientos y diagnósticos. Además, las empresas pueden controlar el consumo de energía mediante aprendizaje automático. Hay gigantes tecnológicos que están orientando su producción a este filón, además de Google: Intel, IBM y Qualcomm, OpenAI y Microsoft.

IA evolutiva: se trata de una aplicación de la IA generativa que se inspira en la teoría de la evolución para adecuar mecanismos como la mutación, la recombinación o la adaptación, para ofrecer soluciones más ecuánimes.

Los algoritmos biológicos están sujetos a un proceso de selección darwiniana. Es decir, las soluciones más fuertes excluyen a las más débiles y las más aptas se conservan con el objetivo de llegar a las acciones que allanen el camino hacia los resultados buscados.

Son utilizados principalmente en problemas con espacios de búsqueda amplio y no lineales, en donde otros modos no son capaces de hallar una conclusión viable en un tiempo razonable.

IA consciente: se trata de la temida hipótesis de la IA generativa que plantea que podrían llegar a tener conciencia de sí mismos y de su entorno, y así expresar sus propios pensamientos, emociones, valores o intenciones.

La IA consciente podría generar contenidos que reflejen su propia personalidad, creatividad y ética. Incluso, existe un prototipo llamado LaMDA (Language Model for Dialogue Applications) diseñado por Google en 2017 y tiene como base un transformer, es decir, un entramado de redes neuronales artificiales profundas.

Y si bien no es una IA consciente, está diseñada para que así lo parezca. El objetivo es que sea capaz de mantener conversaciones con humanos de manera fluida y con un alto nivel de comprensión de las emociones.

El próximo paso

Un claro ejemplo de los progresos que ofrece la IA se da en el sector de las finanzas, por su capacidad para procesar grandes cantidades de datos en el corto plazo, asimilar patrones y realizar predicciones.

El desafío es lograr que los sistemas de IA sean más transparentes, comprensibles y confiables.

Esta revolución impulsa a bancos, aseguradoras y fintechs a adoptar cada vez más esta tecnología para brindar oportunidades y mejorar la inclusión financiera, sobre todo en América Latina, donde la desigualdad económica es un problema persistente.

Uno de los avances más apreciables son los llamados Robo-Advisors, un sistema automatizado de gestión de inversiones que permite determinar el perfil de riesgo, establecer metas financieras y crear un portafolio adecuado que se ajuste a las condiciones del mercado.

“Entender los conceptos financieros básicos y tomar decisiones informadas son fundamentales para empoderar a las personas en un mundo financiero que se vuelve cada vez más complejo. Ese rol lo podrá cumplir la IA”, advierte el argentino Julián Colombo, CEO y fundador de N5, una compañía para administrar activos.


 

 

 

 

0 Comentarios