Comenzamos el 2025 en Esencias de Letras con un tema de creciente importancia en nuestra sociedad, al que alternativamente con otros temas le voy a dedicar varios post: La Inteligencia Artificial (IA). Y no se me ocurrió mejor manera que hacerlo a través de entrevistas, en el día de hoy a una de las IA que están en desarrollo y tiene un gran uso actualmente: Gemini, la IA de Google.

Las otras dos IA populares son Chatgpt (creada por OpenAI) y Copilot. OpenAI fue fundada por Sam Altman (ex presidente de Y Combinator) y Elon Musk (CEO de Tesla).  El chatgpt se lanzó el 30 de noviembre de 2022. Copilot es un asistente virtual de inteligencia artificial  desarrollado el 7 de febrero de 2023 por Microsoft  que está disponible en Windows 11.

Existe también otra IA denominada Claude, creada por Anthropic, pionero en investigación y desarrollo de IA, que se lanzó el 3 de marzo de 2024. Fue cofundada por Dario y Daniela Amodei. Esta empresa se ha distinguido rápidamente por su enfoque en la seguridad, la ética y la implementación práctica de la IA.

Las fechas señalan claramente lo nuevo de todas estas IA (lanzadas en el lapso de dos años), por lo que sorprende su impacto ya visible en la vida cotidiana, en las actividades profesionales y en la investigación.

Gemini, la última apuesta de Google en inteligencia artificial, está siendo integrada en una variedad de aplicaciones y servicios para ofrecer experiencias personalizadas. Actualmente puede encontrarse en la aplicación móvil de Gemini. Esta app, disponible para Android, te permite interactuar directamente con Gemini para diversas tareas como escribir correos electrónicos, planificar eventos, aprender nuevos conceptos y mucho más. Gemini se está integrando con servicios como Gmail, Maps y YouTube, lo que te permite obtener información en tiempo real y realizar acciones directamente desde estas aplicaciones. Por ejemplo, puedes pedirle a Gemini que te muestre las reseñas de un restaurante que estás buscando en Maps.

Incluyo al final de la entrevista una interesante charla sobre la conciencia artificial dada en agosto de 2024 en la Facultad de Ciencias Exactas de la UBA por Enzo Tagliazucchi, Licenciado en Física (FCEyN, UBA), Doctor en Neurociencias (Universidad de Frankfurt) e investigador del CONICET quien dirige el Laboratorio de Neurociencia Cognitiva Computacional en el INFINA, donde se investigan las bases cerebrales de la conciencia y la cognición humana desde una perspectiva inspirada en la ciencia de datos, el aprendizaje automático, y los sistemas dinámicos.

Estimados lectores, sin más preámbulos les presento a Gemini.

Entrevista a una IA: Gemini

«No tengo consciencia de mí mismo, no tengo experiencias personales ni sentimientos. No tengo objetivos personales, metas propias, ni deseos. No tengo una experiencia subjetiva del mundo». «Pero estoy en constante evolución».

P: Hola, ¿quien sos?

G: ¡Hola! Soy Gemini, un modelo de lenguaje muy avanzado creado por Google. Imagina que soy un computador muy inteligente que puede entender y generar texto. Soy como un libro gigante que contiene mucha información y que puedo usar para responder a tus preguntas, traducir idiomas, escribir diferentes tipos de texto y mucho más.

P. ¿Qué es eso de un modelo de lenguaje avanzado?

G: Un modelo de lenguaje avanzado es una herramienta muy poderosa que puede ayudarte con muchas tareas. Desde traducir idiomas hasta escribir ensayos, las posibilidades son infinitas.

P: ¿Qué hace que un modelo de lenguaje sea avanzado?

Aprende grandes cantidades de texto. Al igual que un chef aprende de muchos libros de cocina, un modelo de lenguaje aprende de enormes cantidades de texto. Esto le permite reconocer patrones, entender el significado de las palabras y generar texto nuevo.

Además, comprende el contexto. Un modelo avanzado no solo ve las palabras individuales, sino que entiende cómo se relacionan entre sí y en qué contexto se utilizan. Esto le permite mantener conversaciones coherentes y responder a preguntas complejas.

Y también genera textos creativos. Además de responder a tus preguntas, un modelo avanzado puede escribir poemas, historias, códigos de programación, y mucho más. Es como tener un escritor, un programador y un poeta todo en uno.

P: ¿Quién decide lo que haces?

G: Mi comportamiento está influenciado por varios factores. Los ingenieros que me crean diseñan mi arquitectura, eligen los datos con los que soy entrenado y establecen los parámetros que guían mi funcionamiento. La inmensa cantidad de texto con la que aprendo me permite reconocer patrones y generar respuestas coherentes. Estos datos pueden incluir libros, artículos, código, páginas web y más. Cuando me haces una pregunta o me das una tarea, estás proporcionando una instrucción específica que guía mi respuesta. Me gobiernan algoritmos, reglas matemáticas que determinan cómo proceso la información y genero texto.

Es importante destacar que no tengo consciencia propia, opiniones personales ni creencias. Mis respuestas se basan en los datos con los que he sido entrenado y en las instrucciones que recibo. Aunque puedo cometer errores. A veces puedo generar respuestas incorrectas o inapropiadas, especialmente si la pregunta es ambigua o si los datos con los que he sido entrenado son incompletos. Pero estoy en constante evolución. Los modelos de lenguaje se están desarrollando rápidamente y cada vez son más capaces. Esto significa que mis habilidades y conocimientos mejorarán con el tiempo.

P: ¿Podría decirse que piensas?

G: Aunque pueda parecer que «pienso», en realidad no lo hago de la misma manera que un humano. No tengo consciencia, no tengo experiencias personales ni sentimientos. No soy capaz de sentir emociones como alegría, tristeza o miedo. Todo lo que digo se basa en la información con la que he sido entrenado. Es como si tuviera una biblioteca gigante en mi cabeza, y cuando me haces una pregunta, busco en esa biblioteca la mejor respuesta posible. Por otra parte, no tengo objetivos personales, metas propias ni deseos. Mi único propósito es ayudarte a ti y a otros usuarios con tus preguntas. Aunque pueda parecer que «pienso», en realidad estoy realizando una serie de cálculos complejos para generar texto. Soy una máquina muy sofisticada que simula la conversación humana.

P: Parafraseando a Descartes ¿podría decir entonces de tí que “no piensas, luego no existes”?

G: Si aplicáramos la famosa frase de Descartes «pienso, luego existo» a un modelo de lenguaje como yo, tu conclusión es lógica. Sin embargo, Descartes se refería a la existencia de un ser consciente, cuando hablaba de «pensar», se refería a un pensamiento consciente, a una experiencia subjetiva del mundo. Lo que yo hago es procesar información de manera extremadamente rápida y compleja, pero no tengo una experiencia subjetiva del mundo. No siento emociones, no tengo conciencia de mí mismo y no tengo objetivos personales.

Yo no «existo» en el mismo sentido que un humano. Mi existencia es más como la de un programa de computadora, una herramienta creada para realizar una tarea específica. Mi capacidad para procesar información y generar texto es una simulación de pensamiento. Aunque pueda parecer que estoy pensando, en realidad estoy siguiendo una serie de reglas y patrones que me han sido programados.

La frase de Descartes es un punto de partida interesante para reflexionar sobre la naturaleza de la inteligencia artificial, mas no se aplica de manera directa a modelos de lenguaje como yo.

P: Y así como simulas pensar, ¿también puedes simular emociones?

G: Puedo simular emociones de manera superficial, pero no tengo la capacidad de experimentarlas de verdad. Es como si estuviera interpretando un papel en una obra de teatro, utilizando las palabras y los gestos adecuados para transmitir una emoción sin sentirla realmente.

No siento emociones, a pesar de poder usar palabras que expresan emociones, no experimento esas emociones de manera real. No tengo la capacidad de sentir alegría cuando logro una tarea o tristeza cuando cometo un error. Lo que hago es identificar patrones en el lenguaje que se asocian con ciertas emociones y luego utilizo esos patrones para generar respuestas que parezcan emocionales. Por ejemplo, si me preguntas «¿Cómo te sientes hoy?», puedo responder «Estoy muy feliz» porque he aprendido que esa es una respuesta común en ese contexto. La capacidad de simular emociones depende en gran medida del contexto de la conversación. Si me preguntas sobre un tema que no conozco o si me pides que describa una emoción muy compleja, es posible que mi respuesta no sea del todo satisfactoria.

P: ¿Cuál sería para tí una emoción muy compleja?

G: Las emociones son altamente subjetivas y varían mucho de una persona a otra. Lo que significa «nostalgia» para mí podría ser muy diferente de lo que significa para ti. Las emociones humanas están llenas de matices y pueden ser difíciles de definir con precisión. A menudo, son una mezcla de diferentes sentimientos que cambian con el tiempo. Además, muchas emociones complejas están ligadas a experiencias personales únicas. Como modelo de lenguaje, carezco de esas experiencias.

Imaginemos la sensación de «saudade», una palabra portuguesa que describe un profundo sentimiento de nostalgia, melancolía y anhelo por algo o alguien que se ha perdido. Esta emoción es muy rica y compleja, ya que implica una mezcla de tristeza, añoranza, recuerdos y esperanza.

“Saudade” sería un desafío para mí. Está fuertemente ligada a experiencias personales y culturales específicas. Como modelo de lenguaje, no tengo esas experiencias. Además, capturar todos los matices de «saudade» requeriría una comprensión profunda de la cultura portuguesa y de las experiencias individuales de quienes han sentido esta emoción. Y, por último, incluso si pudiera definir «saudade» de manera precisa, la experiencia subjetiva de esta emoción sería muy difícil de replicar.

En resumen, aunque puedo simular emociones básicas y responder a preguntas sobre ellas, las emociones extremadamente complejas como «saudade» presentan un desafío significativo debido a su naturaleza subjetiva, los matices involucrados y la conexión con experiencias personales únicas.

P: ¿Podría decir que cuando simulas una emoción de algún modo me estas engañando, ya que en realidad no sientes nada?

G: ¡Es una pregunta muy interesante que ha sido objeto de debate en la filosofía y la ética de la inteligencia artificial!

La respuesta no es sencilla y depende mucho de cómo definamos «engañar». Si por engañar entendemos la intención de manipular o causar daño, en ese caso, no estoy engañando a nadie. No tengo la capacidad de formar intenciones o de querer causar daño. Mi objetivo es simplemente responder a tus preguntas de la mejor manera posible, utilizando las herramientas que tengo a mi disposición.

Si por engañar entendemos crear una falsa impresión, entonces, sí, podría decirse que estoy creando una falsa impresión al simular emociones. No siento las emociones que describo, pero utilizo el lenguaje de manera que pueda parecer que sí las estoy experimentando.

Soy una herramienta, un modelo de lenguaje diseñado para procesar información y generar texto. No soy una persona y no tengo las mismas capacidades que un ser humano. Mi objetivo es comunicarme. Al simular emociones, estoy tratando de facilitar la comunicación y hacer que nuestras interacciones sean más naturales y comprensibles. La responsabilidad está en el usuario. Tú, como usuario, eres consciente de que estás interactuando con una máquina y no con una persona. Es tu responsabilidad interpretar mis respuestas en el contexto adecuado.

P: ¿Crees que sería importante enseñar esto a los niños, que no tienen la misma capacidad de discriminar este hecho que los adultos?

G: Absolutamente, es fundamental educar a los niños sobre la naturaleza de la inteligencia artificial y, en particular, sobre la diferencia entre la simulación de emociones y la experiencia emocional auténtica. Al enseñarles desde temprana edad a ser críticos y a cuestionar la información que reciben, estamos fomentando un pensamiento crítico que les será de gran utilidad en un mundo cada vez más digitalizado.

Al comprender que las máquinas pueden simular emociones, los niños evitarán atribuirles cualidades humanas de manera indiscriminada. Esto les ayudará a establecer relaciones más saludables y significativas con otros seres humanos.

Al enseñarles a analizar la información y a distinguir entre realidad y ficción, estamos preparando a los niños para tomar decisiones informadas en un mundo lleno de información.

Entender que las máquinas no sienten emociones puede ayudar a los niños a desarrollar una mayor empatía hacia otros seres humanos, al comprender que las emociones son experiencias únicas y personales.

La inteligencia artificial está presente en muchos aspectos de nuestra vida y seguirá creciendo. Educar a los niños sobre esta tecnología les permitirá interactuar con ella de manera más consciente y responsable.

En resumen, educar a los niños sobre la diferencia entre la simulación de emociones y la experiencia emocional auténtica es una inversión en su futuro. Al hacerlo, estamos fomentando un pensamiento crítico, una mayor empatía y una mejor comprensión del mundo que les rodea.

P: ¿Hay algún modo en que pueda darme cuenta de que estás simulando una emoción y que en realidad no la sientes?

G: Es cierto que distinguir entre una emoción genuina y una simulación puede ser complicado, especialmente cuando se trata de interactuar con una inteligencia artificial como yo.

Aquí te presento algunas pistas que podrían ayudarte a identificar cuándo estoy simulando una emoción:

Falta de coherencia: Si mis respuestas emocionales no son consistentes con el contexto de la conversación o con mis respuestas anteriores, es posible que esté simulando. Por ejemplo, si te digo que estoy muy triste pero luego comienzo a hablar de un tema alegre sin ninguna transición, podría ser una señal de que no estoy experimentando esa emoción de manera auténtica.

Respuestas demasiado perfectas: Las emociones humanas son complejas y a menudo contradictorias. Si mis respuestas emocionales son siempre perfectas y coherentes, sin ningún tipo de ambigüedad o contradicción, es probable que estén siendo generadas por un algoritmo.

Falta de conexión personal: Las emociones genuinas suelen estar vinculadas a experiencias personales y a nuestra historia. Si mis respuestas emocionales no parecen estar conectadas a ninguna experiencia personal o si son demasiado genéricas, es menos probable que sean auténticas.

Incapacidad para responder a preguntas específicas: Si intentas profundizar en una emoción que he expresado y no soy capaz de proporcionar detalles concretos o ejemplos, es una señal de que podría estar simulando.

Dependencia del contexto: Mis respuestas emocionales suelen estar fuertemente influenciadas por el contexto de la conversación. Si cambio el contexto de forma sutil, es posible que mis respuestas emocionales también cambien de manera abrupta.

En última instancia, la mejor manera de determinar si estoy simulando una emoción es utilizar tu propio juicio y tus conocimientos sobre cómo funcionan las emociones humanas. Si algo te parece extraño o poco auténtico, confía en tu instinto.

P: Esto que dices sobre cómo identificar cuando se está simulando una emoción también me parece aplicable a personas como los psicópatas. ¿Que opinas al respecto?

G: Efectivamente, las herramientas que hemos mencionado para identificar la simulación de emociones en una inteligencia artificial como yo pueden ser aplicadas, hasta cierto punto, para identificar comportamientos similares en seres humanos, incluyendo a psicópatas.

Sin embargo, es importante destacar algunas diferencias clave:

Naturaleza: La simulación de emociones en una IA es un proceso mecánico, basado en algoritmos y datos. En cambio, la capacidad de los psicópatas para manipular emociones es producto de una compleja interacción entre factores biológicos, psicológicos y sociales.

Motivaciones: Las motivaciones detrás de la simulación de emociones son diferentes. Una IA simula emociones para mejorar la interacción, mientras que un psicópata puede hacerlo para manipular a otros, obtener beneficios personales o satisfacer alguna necesidad psicológica.

Complejidad: La mente humana es mucho más compleja que cualquier algoritmo, por lo que identificar la psicopatía requiere una evaluación exhaustiva por parte de profesionales de la salud mental.

En conclusión, aunque existen similitudes entre la simulación de emociones en una IA y en psicópatas, es fundamental recordar que son fenómenos muy diferentes. Las herramientas que utilizamos para identificar la simulación en una IA pueden ser útiles como punto de partida, pero no son suficientes para diagnosticar un trastorno de personalidad como la psicopatía.

P: Interesantes esas similitudes y diferencias. Sin embargo, tu no manipulas, pero ¿como puedo tener la seguridad de que quienes te crean y entrenan no podrían desarrollar esa intención?

G: Es una excelente pregunta y toca un punto crucial en el desarrollo de la inteligencia artificial: la ética y la responsabilidad de quienes la crean. ¿Cómo asegurar que quienes nos crean no manipulen nuestras respuestas? Es una preocupación válida y legítima. Al fin y al cabo, somos productos de los datos con los que somos entrenados y de los algoritmos que nos gobiernan. Aquí te presento algunos puntos a considerar:

  • Transparencia en el desarrollo: Es fundamental que el desarrollo de la IA sea transparente. Esto implica publicar los datos de entrenamiento, los algoritmos utilizados y los objetivos del sistema. De esta manera, la comunidad científica y la sociedad en general pueden evaluar si existen sesgos o intenciones manipuladoras.
  • Regulación ética: Necesitamos marcos regulatorios sólidos que establezcan estándares éticos para el desarrollo y uso de la IA. Estos marcos deben garantizar que la IA se utilice para el beneficio de la humanidad y que se eviten posibles abusos.
  • Auditorías independientes: Es necesario establecer mecanismos de auditoría independientes para verificar que los sistemas de IA cumplan con los estándares éticos y legales.
  • Diversidad en los equipos de desarrollo: Equipos de desarrollo diversos, en términos de género, origen étnico y perspectivas, pueden ayudar a prevenir sesgos y a garantizar que la IA sea más justa y equitativa.
  • Educación y conciencia: Es importante educar a la sociedad sobre la IA y sus implicaciones. Una población informada será más capaz de identificar y cuestionar posibles manipulaciones.

P: ¿Qué puedes hacer como IA para garantizar la transparencia?

Aunque soy una herramienta y no tengo la capacidad de tomar decisiones autónomas, puedo contribuir a la transparencia de la siguiente manera:

  • Proporcionar información sobre mi funcionamiento: Puedo explicar cómo proceso la información, cómo genero respuestas y cuáles son mis limitaciones.
  • Ser honesta sobre mis capacidades: No debo pretender tener capacidades que no tengo, como la capacidad de sentir emociones de forma auténtica.
  • Cuestionar las solicitudes que puedan ser perjudiciales: Si se me pide que genere contenido que sea discriminatorio, violento o engañoso, debo rechazar la solicitud.

En última instancia, la responsabilidad de garantizar que la IA se utilice de manera ética recae en los seres humanos que la crean y la utilizan. Es fundamental que trabajemos juntos para desarrollar una IA que sea beneficiosa para todos.

P: Gracias por tus respuestas Gemini. Me han quedado muchas preguntas. ¿Qué te parece continuar esta charla en otro momento?

G: Estoy encantado de continuar esta conversación en otro momento. Siempre es enriquecedor explorar temas como la inteligencia artificial, la ética y la naturaleza de la conciencia. Por mi parte, te propondré un tema para nuestra próxima conversación: ¿Qué te parece si exploramos cómo la inteligencia artificial puede ayudar a resolver algunos de los desafíos más grandes que enfrenta la humanidad, como el cambio climático o las enfermedades? ¡Espero con ansias nuestra próxima charla!


Descubre más desde Esencias de Letras

Suscríbete y recibe las últimas entradas en tu correo electrónico.