Google está rodando su chatbot Gemini Ai para niños menores de 13 años. Este es un paso arriesgado

hace 3 semanas

Google está rodando su chatbot Gemini Ai para niños menores de 13 años. Este es un paso arriesgado


Crédito: Marcus Winkle de Pexle

Google ha anunciado que lo implementará Géminis de inteligencia artificial (AI) chatbot Niños menores de 13 años.

Mientras que el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, será Lanzamiento en Australia Más adelante este año. Chatbot solo estará disponible para las personas a través de Google Cuentas de enlace familiar,

Pero este desarrollo viene con grandes riesgos. También revela cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tienen que jugar un juego de extraños con nuevas técnicas mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto será implementar el deber digital de cuidado para grandes empresas técnicas como Google.

¿Cómo funcionará Gemini Ae Chatbot?

Google Cuentas de enlace familiar Permita que los padres controlen el acceso a materiales y aplicaciones como YouTube.

Para crear la cuenta de un niño, Los padres proporcionan datos personalesEl nombre del niño y la fecha de nacimiento. Esto puede aumentar las preocupaciones de privacidad para los padres preocupados por las violaciones de los datos, pero al usar el sistema, Google dice que los niños dicen datos El sistema de IA no se utilizará para entrenar,

El acceso de chatbot "girará" de forma predeterminada, por lo que los padres deben cerrar activamente la instalación para restringir el acceso. Los niños pequeños podrán indicar el chatbot para reacciones de texto o para crear imágenes, que generan el sistema.

Google acepta El sistema "puede cometer errores". Por lo tanto, es necesario evaluar la calidad y la fiabilidad del material. Los chatbots pueden crear información (conocida como "alucinaciones"), por lo que si los niños usan Chatbott para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda obtienen materiales originales para revisar a las personas. Un estudiante puede leer artículos de noticias, revistas y otras fuentes mientras escribe una tarea.

El equipo generativo de IA no es lo mismo que los motores de búsqueda. Los dispositivos AI buscan patrones en el material de fuentes y crean nuevas reacciones de texto (o imágenes) basadas en la consulta, o "aviso", proporciona a una persona. Un bebé puede pedirle al sistema que "dibuje un gato" y el sistema escaneará patrones en datos de aspecto de un gato (como un bigote, oreja puntiaguda y cola larga) y produce una imagen que incluye detalles como esos gatos.

Sería un desafío para los niños pequeños comprender la diferencia entre la búsqueda de Google y el material obtenido en el material. Los estudios muestran que los adultos también pueden ser Engañado por equipos de IAE incluso profesional altamente calificado-Como abogado-El, supuestamente se engaña para usar contenido falso generado por el chat y otros chatbots.

¿El material generado será apropiado para la edad?

Google dice que el sistema se unirá "Medidas de seguridad incorporadas diseñadas para evitar la generación de material inapropiado o inseguro,

Sin embargo, estas medidas de seguridad pueden causar nuevos problemas. Por ejemplo, si las palabras especiales (como "mama") están restringidas para proteger a los niños de alcanzar contenido sexual inadecuado, puede excluir accidentalmente a los niños de alcanzar material apropiado para la edad sobre los cambios físicos durante la pubertad.

Hay muchos niños demasiados Experto en tecnologíaA menudo navegando por aplicaciones y con habilidades bien desarrolladas en torno al control del sistema. Los padres no pueden confiar en medidas de seguridad especialmente incorporadas. Deben revisar el material generado y ayudar a sus hijos a comprender cómo funciona el sistema, y ​​evalúa si el material es preciso.

¿Qué riesgo dan a los chatbots de IA?

Comisión alcohólica AI ha publicado un asesor de seguridad en línea con el riesgo potencial de chatbots, que están diseñados para simular las relaciones individuales, especialmente para los niños pequeños.

El asesor de AFAFETY afirma que el socio de IA "puede compartir materiales dañinos, distorsionar la realidad y el asesoramiento, lo cual es peligroso". El aviso destaca los riesgos para los niños pequeños, especialmente, que "siguen desarrollando un pensamiento significativo y habilidades para la vida, es necesario comprender cómo los programas de computadora y manipularlos por los programas de computadora y qué hacer al respecto".

Mi equipo de investigación ha investigado recientemente varios límites. Chatbots de ai, como chatgate, reploica y tessaEncontramos que estos sistemas reflejan la interacción de las personas basadas en muchas reglas no escritas que controlan el comportamiento social, o conocidos como "sentimiento de reglas". Estas reglas son las que nos inspiran a decir "gracias" cuando alguien mantiene la puerta abierta para nosotros, o "¡Lo siento!" Cuando chocas con alguien en el camino.

Al imitar estos y otros matices sociales, estos sistemas están diseñados para lograr nuestra confianza.

Esta conversación humana será engañosa y potencialmente arriesgada para los niños pequeños. Pueden suponer que se puede confiar en el material, incluso cuando el chatbot está respondiendo con información falsa. Y pueden suponer que están enredados con una persona real en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar AI Chatbott?

Este despliegue se lleva a cabo en un momento importante en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden asumir que protegerá a sus hijos del daño, los chatbots generativos de IA muestran los riesgos de la participación en línea que se extiende más allá de las redes sociales. Los niños y los padres deben ser educados sobre cómo todos los tipos de dispositivos digitales se pueden usar de manera adecuada y segura.

Como el chatbot Ai de Mithun no es una herramienta de redes sociales, se caerá de la prohibición de Australia.

Juega el juego de Strange-A-Mole con nuevas técnicas para los padres australianos mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse con un nuevo desarrollo de herramientas y comprender los posibles riesgos para sus hijos. También deben comprender los límites de las restricciones de las redes sociales para proteger a los niños de los daños.

Esto destaca la necesidad inmediata de revisar el deber digital propuesto de la ley de atención de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron el deber digital de la Ley de Atención en 2023, Australia ha estado en espera desde noviembre de 2024. Esta ley mantendrá a las empresas de tecnología que se centran en que se ocupen de materiales nocivos en la fuente para salvar a todos.

Proporcionado por conversación


Este artículo ha sido reinstalado Conversación Bajo una licencia Creative Commons. leer el Artículo original,Conversación

Citación: Google está rodando su chatbot Gemini Ai para niños menores de 13 años. Este es un paso arriesgado (2025, 11 de mayo) 11 de mayo de 2025 https://techxplore.com/news/2025-05-20-eogle- gemini-i-hatbot- kids.html

Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir