Psiquiatra para comprender cómo procesa el idioma

hace 9 horas

Psiquiatra para comprender cómo procesa el idioma


Crédito: Dominio público de Pixabay/CC0

Un nuevo estudio apariencia En Otro Una psiquiatría en la Universidad de Canaso muestra cómo el Chipt, el popular chatbot de guerreros artificiales, respondió a no hacia atrás.

Las no palabras son letras y sonidos sin sentido utilizados en la psicología cognitiva que recuerdan y procesan el proceso para descubrir cómo aprenden los humanos.

El autor Michael Vitvich, profesor en el departamento de apuntación del discurso en KU, quería saber cómo la "caja negra" del chat podría reaccionar ante signos experimentales similares.

Él dijo: "Como psiquiatría, uno de lo que he hecho en el pasado, uno de ellos tiene que dar tonterías para ver cómo lo responden, sin sentido que está especialmente diseñado para comprender lo que saben", dijo. "He tratado de usar métodos que usamos con las personas cómo están y hacer lo mismo con AI para ver lo que está haciendo".

Al frotar el chat, Vitvich descubrió que era bastante bueno en la búsqueda de relaciones entre las cosas.

"Este patrón se encuentra, pero no necesariamente el mismo patrón que un humano usará para hacer la misma tarea", dijo. "Hacemos las cosas de una manera muy diferente a la forma en que funciona la IA. Este es un punto importante. Está bien que hagamos las cosas de manera diferente. Y las cosas con las que necesitamos ayuda es que debemos diseñar para darle a AI una trampa de seguridad, para ayudarnos en esas cosas".

En una parte del estudio, ChatGPT demostró que puede proporcionar las definiciones correctas para muchas palabras en inglés reales que ya no están en uso. Un ejemplo es "autónomo", un negocio del siglo XIX que incluía personas para despertar, ahora se volvió obsoleto por los relojes de alarma.

Dado que estas palabras ya no son parte del inglés, los investigadores las consideran como "no palabras".

Los resultados están pintados sobre el funcionamiento interno del chatbot. De las palabras extintas 52, ChatGPT respondió con 36 definiciones correctas. Para 11 palabras, ChatGPT respondió que no podía reconocer la palabra. Para tres palabras, Chatbot brilló con palabras en idiomas extranjeros.

Por dos palabras, ChatGPT ha respondido, dando las llamadas "alucinaciones" en respuesta a las solicitudes ordenadas por palabras, respondió.

"Detuvo algunas cosas", dijo Vitvich. "Le pedimos que definiera estas palabras extintas. Este es un buen número de ellas. En otro grupo, decía:" Sí, no sé qué es. Es una palabra extraña o una palabra muy rara que ya no se usa. "Pero luego, en una pareja, creo que estaba tratando de ser útil".

En otra parte del experimento, ChatGPT recibió un conjunto de palabras españolas y se le pidió que proporcionara palabras similares del inglés. Esta tarea es muy similar a una "tarea asociada fonética", que se utiliza para medir aspectos de la igualdad fonética con los hablantes de inglés.

Vitvich dijo que el experimento destacó la diferencia de cómo el lenguaje de procesos humanos y de IA.

"Si te doy una palabra en español y te digo que me da una palabra que siente, tú, como hablante de inglés, me darás una palabra inglesa que se ve así", explicó. "No me cambiarás de idiomas y me darás algo de un idioma completamente diferente, lo que hizo el chat.

"Solo el tiempo que las personas cambian a tales idiomas cuando los padres multilingües que no enseñaron a sus hijos, excepto ningún idioma, quieren hablar sin comprender a los niños aparte del inglés".

En un tercer aspecto del estudio, no se diseñaron para parecerse a palabras reales en inglés. Luego se le pidió a Chatgate que calificara las palabras en una escala para una "mala palabra en inglés" para "buenas palabras en inglés", que es hasta siete para "buenas palabras en inglés": evalúa cuánto no se parecían a las palabras como una palabra en inglés. La calificación de ChatGPT se comparó con las personas dadas por los hablantes de inglés humano.

Finalmente, el investigador de KU inspiró el chatup para crear nuevas palabras en inglés, refiriéndose a un concepto novedoso: "Not Essential the News" de HBO fue popularizado por el comediante Rich Hall en la década de 1980.

"Solía ​​hacer 'sniglets', que eran palabras que no estaban presentes", dijo Vitevich. "Con la aspiradora, cuando hay un hilo en el piso y continúas y no se apesta. Entonces, vas a eso, una y otra vez. ¿Cómo se llama el hilo?" Vino con un nombre para el hilo que no está chupado.

Según Vitevicch, AI Chat Bot "hizo un trabajo interesante allí". Después de inspirar a ChatGPT para nuevas palabras que coincidan con algunos conceptos, descubrió que a menudo depende de un método predicho para combinar dos palabras.

Vitwich dijo: "Mi favorito era 'Rousage', que se expresó al despertar".

Otra palabra de chat word coise en la investigación incluye:

  • "Pridify:" Orgulloso del logro de otra persona.
  • "Lakesinize:" El proceso por el cual comienza a tomar un significado sin palabras.
  • "Stumblop:" para viajar de pie.

Al hablar sin sentido para ChatGPT, Vitevitch espera comprender mejor que cuando la IA puede ayudar a los humanos en algunas tareas de idiomas, en lugar de ese hombre ya puede hacerlo bastante bien.

Más información:
Michael S. Vitvich et al, Investigando el chat GPT con técnicas de psiquiatras que no son palabras y máquinas, Otro (2025). Doi: 10.1371/journal.pone.0325612

Concedido por la Universidad de Kansas


Citación: El psiquiatra habló sin sentido para el chat que para comprender cómo se procesa (2025, 18 de junio), fue tomada de https://techxplore.com/news/2025-06-schyolingist- chhatgpt-slanguage.html el 18 de junio de 2025.

Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir