ChatGPT Forma un Equipo de Investigación para Abordar el Riesgo de la Inteligencia Artificial para la Humanidad

La organización matriz de ChatGPT, OpenAI, ha dado un paso significativo en la gestión de los riesgos relacionados con la inteligencia artificial (IA) al crear un equipo especializado en esta área.

 

Si bien la IA tiene el potencial de mejorar nuestras vidas, también conlleva riesgos considerables. Los gobiernos y las empresas están cada vez más preocupados por cómo abordar estos desafíos.

 

El equipo de Preparación de OpenAI será liderado por Aleksander Madry, director del Centro de Aprendizaje Automático Implementable del MIT.

 

La organización reconoce riesgos significativos asociados con la IA, como la persuasión individualizada, la seguridad cibernética y las amenazas químicas, biológicas, radiológicas y nucleares. También preocupa la replicación y adaptación autónoma, la desinformación y la propagación de rumores mediante la IA.

 

El equipo de preparación de OpenAI se centrará en abordar los riesgos relacionados con estos eventos catastróficos. Su trabajo se considera una contribución a la próxima cumbre mundial de IA en el Reino Unido.

 

Descargo de responsabilidad: La información presentada no constituye asesoramiento financiero, de inversión, comercial u otro tipo y es únicamente la opinión del escritor, Las imágenes son solo con fines ilustrativos y no deben usarse para la toma de decisiones importantes. Al usar este sitio, acepta que no somos responsables de pérdidas, daños o lesiones derivadas del uso o interpretación de la información o imágenes.
Salir de la versión móvil