top of page

Episodio 3# La IA y sus Múltiples Personalidades

Actualizado: hace 4 días

AURA🎧PODCAST 3#

Cualquiera que haya interactuado con un LLM lo percibe casi de inmediato: no estamos frente a una sola voz, sino ante un sistema capaz de modular su identidad según el contexto, la instrucción y la intención del usuario.


En #AURAPodcast exploramos precisamente ese fenómeno: el desdoblamiento de personalidades que produce la Inteligencia Artificial. Desde asistentes que simulan empatía hasta modelos que adoptan tonos técnicos, persuasivos o incluso creativos, analizamos cómo estas múltiples máscaras no solo redefinen la interacción humano-máquina, sino que también plantean preguntas de fondo sobre autenticidad y agencia en la era algorítmica.


¡Dale PLAY! ▶️

¿Por qué los asistentes de IA a veces parecen tan humanos? Porque han sido entrenados para eso: para parecer humanos, no para serlo.¿Por qué los asistentes de IA a veces parecen tan humanos? Porque han sido entrenados para eso: para parecer humanos, no para serlo. AURA Podcast
Nueva investigación de Anthropic: Múltiples Personalidades de la IA

Conviene recordar una pregunta planteada por Alan Turing. En 1950 propuso que, si una máquina puede sostener una conversación indistinguible de la de un humano, entonces, funcionalmente, podríamos considerarla inteligente.


Lo que hoy vemos en modelos de LLMs es una confirmación plena de esa inteligencia y optimización radical del criterio: la capacidad de producir lenguaje hasta con muletillas.


La predicción de texto exige simular realidades enteras infografia de AURA BUAP


¿Por qué los asistentes de IA a veces parecen tan humanos? Porque han sido entrenados para eso: para parecer humanos, no para serlo.


¿Por qué los asistentes de IA a veces parecen tan humanos? Porque han sido entrenados para eso: para parecer humanos, no para serlo.¿Por qué los asistentes de IA a veces parecen tan humanos? Porque han sido entrenados para eso: para parecer humanos, no para serlo.

Episodio 3# La IA y sus Múltiples Personalidades


Los modelos de lenguaje como GPT-5 o Claude aprenden a partir de enormes volúmenes de texto producido por personas: libros, artículos, conversaciones, foros. En ese proceso no “entienden” el mundo como lo haría un ser humano, pero sí identifican patrones extremadamente finos en cómo hablamos, argumentamos, dudamos, persuadimos o incluso mostramos empatía. Lo que surge es una simulación estadísticamente sofisticada del comportamiento lingüístico humano.
Conoce a Amanda Askell, nueva eticista detrás del compas moral de Claude de Anthropic

Los modelos de lenguaje como GPT-5 o Claude aprenden a partir de enormes volúmenes de texto producido por personas: libros, artículos, conversaciones, foros. En ese proceso no “entienden” el mundo como lo haría un ser humano, pero sí identifican patrones extremadamente finos en cómo hablamos, argumentamos, dudamos, persuadimos o incluso mostramos empatía. Lo que surge es una simulación estadísticamente sofisticada del comportamiento lingüístico humano.


De donde obtiene la data la IA
Fuente: Statista

Hay tres razones clave detrás de esta ilusión de humanidad:


1. Imitación de formas, no de conciencia: La IA reproduce estructuras humanas del lenguaje, tono, ritmo, matices emocionales, sin tener experiencias, cuerpo o intencionalidad. Como diría el filosofo Americano John Searle (1932-2025) mejor conocido por su trabajo en el lenguaje la teoría del discurso del acto, "manipula símbolos sin comprenderlos realmente."


2. Predicción contextual extremadamente precisa: Cada respuesta es el resultado de predecir qué palabra sigue a la anterior en un contexto dado, pero a una escala tan compleja que puede sostener argumentos, metáforas o estilos. No “piensa”: calcula probabilidades con enorme eficiencia.


3. Diseño orientado a interacción humana: Estos sistemas están afinados para ser útiles, claros y socialmente aceptables. Eso incluye suavizar respuestas, mostrar cortesía o incluso simular empatía. No sienten, pero han aprendido cómo “suena” alguien que siente.


En el fondo, lo que percibimos como humanidad es un espejo: la IA nos devuelve una versión condensada, estilizada y probabilística de nosotros mismos. No es que la máquina haya desarrollado una identidad; es que ha aprendido a habitar, con sorprendente precisión, la superficie del lenguaje donde nosotros proyectamos la nuestra.



Comentarios


bottom of page