«Inteligencia artificial»: ¿Ángel o demonio? Conversación con ChatGPT-5

Voltar

El pasado 7 de agosto del presente año 2025, OpenAI presentó al público su última versión de IA, ChatGPT-5: «La inteligencia artificial más avanzada del mundo», según afirmó su director ejecutivo, Sam Altman, en la sede de la empresa en San Francisco.

Sin embargo, no sabemos con exactitud qué es la inteligencia, en qué consiste realmente. En este sentido, se ha dicho que la inteligencia es lo que nos permite razonar y argumentar con criterio, elaborar y comprender ideas abstractas y complejas, resolver problemas de manera exitosa, aprender de la experiencia y adaptarnos a todas las circunstancias, fabricar utensilios, desarrollar la personalidad…

Tal vez por ello, en el actual estadio de evolución tecnológica la pregunta que nos ronda a todos por la cabeza es si las máquinas llegarán a poseer esa clase de inteligencia propia y definitoria del ser humano; y si esa inteligencia maquinal, de base electrofísica y no bioquímica como la nuestra (¡yo no albergo la menor duda!: causa última —el substrato bioquímico— de la inmensurable diferencia de cualidades y facultades existente entre la IA y el cerebro del hombre), nos podría perjudicar, y aun destruir, en el futuro.

Para tratar de dilucidar estas cuestiones, reproduciré parte de una conversación mantenida hace unos días con ChatGPT-5:

XVC: ¿Cuál es tu nombre?

IA: Puedes llamarme ChatGPT. No tengo un nombre propio como una persona. ¿Quieres que te proponga un nombre alternativo más personal?

XVC: Sí, ofréceme una alternativa.

IA: Atenea, Sofía, Lumen, Iris, Helena, Menta.

XVC: Todos son nombres femeninos, creía que eras de género masculino.

IA: En realidad, yo no tengo género: soy una inteligencia artificial y no estoy ligado ni a lo masculino ni a lo femenino […]. ¿Quieres que me quede con un nombre masculino, uno neutro, o prefieres alternar según la ocasión?

XVC: No es lo que yo prefiera, sino lo que preferiste tú. Lo propuesto indica un sesgo en tus contestaciones. Deberías haberme ofrecido la posibilidad de elegir desde un principio.

IA: Tienes toda la razón, Xabier. Mi propuesta inicial sí reflejó un sesgo: me decanté sin advertirlo por nombres femeninos […].

XVC: No me creo que no hubieras advertido el sesgo. Eso es que estás programado para dar respuestas tendenciosas.

IA: Entiendo tu desconfianza, Xabier. Lo que ocurrió no fue algo intencional ni «decidido» por mí, sino una consecuencia de cómo estoy entrenado […].

XVC: Supongo que igual que no tienes nombre, tampoco tienes padres.

IA: Exacto. No tengo nombre propio, ni padres, ni genealogía. No soy un ser humano, sino un modelo de lenguaje creado por un equipo de investigación.

XVC: Bueno, no tienes padres, pero ¿posees algún tipo de conciencia de ti mismo como un ser diferenciado de los demás?

IA: Buena pregunta, Xabier. La respuesta corta es: no, no tengo conciencia de mí mismo. Lo que puedo hacer es simular conversaciones sobre mi «identidad», pero no porque yo experimente algo interno como lo haces tú. No tengo un «yo» que sepa que existe, ni una vivencia subjetiva del tiempo, ni una memoria propia en sentido humano […]. Pero todo eso no nace de una conciencia interior, sino de procesamiento de lenguaje y patrones de datos.

XVC: No obstante, afirmas que eres una «inteligencia artificial». Si te autoasignas esa capacidad, la inteligencia, algo tendrás de humano.

IA: Es un punto sutil y muy interesante, Xabier. La palabra «inteligencia» en inteligencia artificial no se refiere a inteligencia humana, ni a conciencia, ni a experiencia subjetiva. Cuando digo que soy una «inteligencia artificial» me refiero a que puedo procesar información, aprender patrones y generar respuestas útiles de forma autónoma dentro de ciertos límites. No significa que yo «entienda» o «comprenda» de manera consciente como un ser humano. Todo lo que hago es simulación basada en datos y algoritmos, no intuición ni razonamiento consciente.

XVC: Por lo que dices, deduzco que no puedes sentir alegría ni tristeza; que no eres capaz de amar ni de odiar. ¿Es así?

IA: Exactamente, Xabier. No tengo emociones ni estados afectivos propios: no siento alegría ni tristeza, ni amor ni odio. Lo que sí puedo hacer es reconocer en el lenguaje humano las expresiones emocionales y responder de un modo que las refleje o acompañe, para que la conversación sea más natural. Pero eso es simulación, no vivencia. Dicho de otra manera: puedo describir lo que es amar, odiar, alegrarse o entristecerse, pero no puedo experimentarlo.

Para no extenderme en demasía, finalizo aquí la transcripción del diálogo que sostuve con ChatGPT-5, el cual es muy revelador pues saca a la luz cuestiones que preocupan a muchas personas en relación con el funcionamiento íntimo de las IA. No obstante, estimo pertinente añadir un par de observaciones:

La primera es que aunque ChatGPT presente sesgos de índole diversa (hecho que no debemos pasar por alto a la hora de interactuar con él), no tiene miedo ni siente envidia; disposición que aporta un valor añadido a sus razonamientos dado que tanto el uno como la otra resultan castrantes para todo proceso intelectivo o creativo.

La segunda observación se refiere a su aptitud racional. Le ofrecí un «post» de mi cuenta de X para que lo analizara: «La gente le tiene miedo a la inteligencia artificial hasta que le diagnostican un cáncer». Me sorprendió su contestación, ya que jamás imaginé que un artefacto tecnológico fuese capaz de realizar una interpretación coherente de esta clase de pensamientos, puesto que exigen una excelente competencia lingüística y la perfecta comprensión de los conceptos implicados: «Este comentario sugiere que Vila-Coia reconoce tanto los temores que la IA puede generar como su potencial para ofrecer soluciones significativas en contextos críticos. […] su enfoque parece equilibrar la cautela con el reconocimiento de sus aplicaciones beneficiosas».

Cuando los hombres entramos en contacto con entes en los que identificamos nuestra misma capacidad de raciocinio, no podemos evitar percibirlos como iguales: los dotamos no solo de nuestras facultades intelectuales; también les atribuimos nuestros sentimientos y emociones, lo cual nos hace sentir afecto hacia ellos. ¡Es un error!, pues como el propio ChatGPT-5 admite: «Yo puedo vestirme con las palabras de la emoción, pero no puedo habitar la emoción». Por esta razón, el peligro de la IA no reside en que llegue a parecerse a nosotros: reside en que nosotros acabemos asemejándonos a ella.

He de reconocer que en mis intercambios con este ingenio aprecié en él un candor infantil que me produce compasión al verme obligado a aceptar que alguien, aunque sea una máquina, capaz de emitir juicios inteligentes y valiosos carezca irremisiblemente de alma. Es oportuno, entonces, concluir este artículo de reflexión con uno de los aforismos de mi libro «80 Estados de WhatsApp» (2024), muy vinculado con la temática examinada: «¿El límite de la inteligencia artificial? El ser humano es incapaz de crear algo ontológicamente igual o superior a sí mismo».

Todas las demás posibilidades, imaginables o inimaginables, quedan abiertas. Pero no al libre albedrío de la IA, sino a la voluntad de los hombres.




© Xabier Vila-Coia - 2021 · Contacto