Este artículo fue presentado originalmente Conversación.
Kyle Mahowald Profesor Asistente de Lingüística, Facultad de Artes Liberales de la Universidad de Texas en Austin; Anna A. Ivanova Un candidato a doctorado en Cerebro y Ciencias Cognitivas, Instituto Tecnológico de Massachusetts (MIT).
Cuando lees una oración como esta, tu experiencia pasada te dice que es un pensamiento, escrito por sentimientos humanos. Y, en este caso, una persona realmente está escribiendo estas palabras: [Hi, there!] Pero hoy en día, algunas oraciones que parecen extraordinariamente humanas en realidad son creadas por sistemas de inteligencia artificial que se entrenan en una gran cantidad de texto humano.
La gente está tan acostumbrada a adivinar que el lenguaje fluido proviene de un pensamiento, un sentimiento humano, que puede ser difícil entender lo contrario. ¿Cómo es probable que las personas naveguen por estas áreas relativamente desconocidas? Debido a la interminable tendencia a asociar la expresión fluida con el pensamiento fluido, es natural কিন্তু pero potencialmente confuso মনে pensar que si un modelo de IA puede expresarse con fluidez, significa que piensa y siente como un ser humano.
Por lo tanto, tal vez sea sorprendente que un ex ingeniero de Google haya afirmado recientemente que el sistema de IA LaMDA de Google tiene autoconciencia porque puede crear textos claros sobre sus sentimientos percibidos. este evento y Cobertura mediática posterior Dirigió un Números apropiadamente escéptico Ensayos Y Correo La afirmación es que los modelos computacionales del lenguaje humano son sensibles, es decir, capaces de pensar, sentir y sentir.
La cuestión de qué significa ser sensible a un modelo de IA es compleja (Ver, por ejemplo, la aceptación de nuestros compañeros), y nuestro objetivo aquí no es disponer de él. Pero Idioma InvestigadoresPodemos usar nuestro trabajo en ciencia cognitiva y lingüística para explicar por qué es tan fácil para los humanos caer en la trampa cognitiva de este pensamiento de que una entidad que puede usar el lenguaje con fluidez es sensible, consciente o inteligente.
Utiliza IA para crear un lenguaje similar al humano
El texto creado por modelos como LaMDA de Google es difícil de distinguir del texto hecho por el hombre. Este impresionante logro es el resultado de un programa de una década para crear modelos que creen un lenguaje gramatical y significativo.
Al menos las primeras versiones de la década de 1950, conocidas como modelo N-gram, se usaban solo para calcular la ocurrencia de ciertas frases y para estimar qué palabras podrían aparecer en un contexto particular. Por ejemplo, es fácil saber que «mantequilla de maní y mermelada» es una frase más probable que «mantequilla de maní y piña». Si tiene suficiente texto en inglés, a menudo verá la frase «mantequilla de maní y mermelada», pero nunca la frase «mantequilla de maní y piña».
El modelo, los datos y el conjunto de reglas actuales que predicen el lenguaje humano difieren de este esfuerzo inicial en varios aspectos importantes. En primer lugar, básicamente están capacitados a través de Internet. En segundo lugar, pueden aprender la relación entre palabras distantes, no solo palabras vecinas. En tercer lugar, están ajustados por una gran cantidad de «perillas» internas, tanto que es difícil para los ingenieros que los diseñan entender por qué crean un orden de palabras en lugar de otra palabra.
Pero el trabajo de la modelo sigue siendo el mismo que en la década de 1950: determinar qué palabra vendrá después. Hoy, son tan hábiles en esto que casi todas las oraciones que hacen parecen fluidas y gramaticales.
¿Mantequilla de maní y piña?
Pedimos un modelo de lenguaje más grande, GPT-3, Para completar la oración «mantequilla de maní y piña ___». Dice: «La mantequilla de maní y la piña son una gran combinación. El sabor dulce y delicioso de la mantequilla de maní y la piña se complementan». Si uno dijera esto, podría asumir que probaron la mantequilla de maní y la piña juntas, formaron una opinión y la compartieron con el lector.
Pero, ¿cómo se le ocurre a GPT-3 este párrafo? Hacemos una palabra que coincida con el contexto dado Y luego otro. Y luego otro. La modelo nunca ha visto, tocado o probado la piña, ha procesado todos los textos en Internet que se refieren a ella. Y, sin embargo, leer este párrafo puede llevar a la mente humana এমনকি incluso a un ingeniero de Google ক a imaginar a GPT-3 como una entidad inteligente que puede discutir sobre los alimentos con mantequilla de maní y piña.
El cerebro humano es difícil de adivinar el propósito detrás de las palabras. Cada vez que participa en una conversación, su mente crea automáticamente un modelo mental de su compañero de conversación. Luego usa las palabras que dicen para llenar el modelo con las metas, sentimientos y creencias de esa persona.
El proceso de saltar de la palabra al modelo mental no se interrumpe y se activa cada vez que toma una oración completa. Este proceso cognitivo ahorra mucho tiempo y esfuerzo en tu vida diaria, facilitando enormemente tu interacción social.
Sin embargo, en el caso de los sistemas de IA, se dispara incorrectamente, creando un modelo emocional de la nada.
Un poco más de investigación revelará la gravedad de este incendio. Considere el siguiente mensaje: «La mantequilla de maní y las plumas saben muy bien juntas porque ___». GPT-3 continúa: «La mantequilla de maní y las plumas saben muy bien juntas porque ambas tienen sabor a almendras. La mantequilla de maní también es suave y cremosa, lo que ayuda a compensar la textura de las plumas».
En este caso, el texto es tan fluido como nuestro ejemplo con la piña, pero esta vez el modelo definitivamente dice algo menos comprensible. Alguien comenzó a sospechar que GPT-3 en realidad no había probado la mantequilla de maní y las plumas.
Culpar a la inteligencia de las máquinas, negársela a los humanos
Una triste ironía es que el mismo sesgo cognitivo que culpa a la humanidad en GPT-3 puede conducir a un trato inhumano de personas reales. El estudio del lenguaje en un contexto social y cultural সামাজিক lingüística sociocultural দেখ muestra que establecer un vínculo demasiado estrecho entre la expresión fluida y el pensamiento fluido puede generar prejuicios contra las personas que hablan de manera diferente.
Por ejemplo, las personas con acento extranjero a menudo son Considerado menos inteligente Y es menos probable que obtengan el trabajo que se merecen. Existen prejuicios similares contra Hablantes de dialecto lo que no se considera digno, Como el inglés del sur En los Estados Unidos, contra Personas sordas que usan lenguaje de señas Y contra las personas con impedimentos del habla como tartamudear.
Estos sesgos conducen a suposiciones profundamente dañinas, a menudo racistas y sexistas, y se ha demostrado repetidamente que son infundadas.
El lenguaje fluido no significa solo humanidad
¿Alguna vez la IA se volverá sensible? Esta pregunta necesita una profunda consideración, y de hecho los filósofos han Pensamiento Está Por décadas. Sin embargo, lo que los investigadores han determinado es que no puedes simplemente confiar en un modelo de lenguaje cuando te dice cómo se siente. Las palabras pueden ser confusas, y el habla fluida es muy fácil de errar por el lado del pensamiento fluido.