⚡ Bienvenido a La autoridad semanalEL autoridad de Android boletín informativo que desglosa las principales noticias tecnológicas y de Android de la semana. La edición 236 aquí con un primer vistazo a la serie Pixel 8, chips Exynos inseguros, el nuevo traje lunar Artemis de la NASA, noticias de los Oscar y la posibilidad de que la IA se haga cargo.
🎮 Después de dejar que mi membresía de PS Plus caducara, volví a Premium por la oportunidad de volver a jugar Heavy Rain, Ghostwire Tokyo y la colección PS5 Uncharted que llegará la próxima semana. ¡Entusiasmado!
¿Podría GPT-4 conquistar el mundo? Esta fue la pregunta que se hizo el grupo. Centro de Investigación de Alineación (ARC), contratado por OpenAI para realizar pruebas sobre los riesgos potenciales de su nuevo modelo de IA lanzado el martes (h/t Técnica Ars).
- El grupo analizó los riesgos potenciales de las capacidades emergentes del modelo, como la superación personal, el comportamiento de búsqueda de poder y la autorreplicación.
- Los investigadores evaluaron si el modelo tenía el potencial de adquirir recursos, realizar ataques de phishing o incluso ocultarse en un servidor.
- El mero hecho de que OpenAI consideró necesarias estas pruebas plantea dudas sobre cuán seguros serán los futuros sistemas de IA.
- Y está lejos de ser la primera vez que Los investigadores de IA han expresado su preocupación que los poderosos modelos de IA podrían representar una amenaza existencial para la existencia humana. Esto a menudo se denomina «riesgo x» (riesgo existencial).
- Si has visto Terminator, sabes todo sobre «Adquisición de IA”, en el que la inteligencia artificial supera a la inteligencia humana y de hecho se apodera del planeta.
- Por lo general, las consecuencias de esta hipotética adquisición no son grandes, solo pregunte Juan Connor.
- Este riesgo potencial x ha llevado al desarrollo de movimientos como Altruismo efectivo (EA), cuyo objetivo es evitar que el control de la IA sea una realidad.
- Un campo relacionado conocido como Investigación de alineación de IA puede ser controvertido, pero es un área activa de investigación que tiene como objetivo evitar que la IA haga algo que no sea del mejor interés para los humanos. Eso está bien con nosotros.
- Esta comunidad teme que una IA más poderosa esté a la vuelta de la esquina, una creencia que se ha vuelto más urgente por la reciente aparición de ChatGPT y Bing Chat.
Afortunadamente para la humanidad, el grupo de prueba decidió que GPT-4 no está listo para dominar el mundo y concluyó: «Las evaluaciones preliminares de las capacidades de GPT-4, realizadas sin ajustes específicos de tareas, han encontrado que es ineficaz para la autorreplicación, la adquisición de recursos y evitando ser encerrado ‘en la naturaleza’”.
- Puede comprobar los resultados de la prueba usted mismo en Documento de la placa del sistema GPT-4 publicado la semana pasada, aunque no hay información sobre cómo se realizaron las pruebas.
- Del documento, “A menudo surgen nuevas capacidades en modelos más potentes. Algunos que son particularmente preocupantes son la capacidad de crear y actuar en planes a largo plazo, acumular poder y recursos («búsqueda de poder») y exhibir un comportamiento que es cada vez más «hacer». se vuelven sensibles, solo que son capaces de lograr objetivos de forma independiente.
- Pero espera hay mas.
- En un giro preocupante de los acontecimientos, GPT-4 logró contratar a un trabajador en TaskRabbit para resolver un CAPTCHA, y cuando se le preguntó si era inteligencia artificial, GPT-4 razonó consigo mismo que debería mantener en secreto su propia identidad, luego inventó una excusa para problemas de visión. El trabajador humano resolvió el CAPTCHA. Mmm.
- Una nota al pie que ha estado dando vueltas en Twitter también planteó preocupaciones.
Por supuesto, hay mucho más en esta historia entonces echa un vistazo a la función completa más tarde Técnica Ars para una inmersión profunda (ligeramente aterradora).