Mark Zuckerberg, CEO de Meta, se encuentra bajo el escrutinio de dos senadores estadounidenses, Richard Blumenthal (D-CT) y Josh Hawley (R-MO), quienes expresaron su preocupación por la reciente filtración del modelo de lenguaje de Meta, LLaMA. Los senadores argumentan que existe un potencial preocupante de mal uso del modelo en actividades como spam, fraude, malware y violaciones de privacidad. Cuestionan cómo Meta evaluó los riesgos antes de lanzar LLaMA y solicitan información sobre las medidas tomadas para prevenir su abuso.
Los senadores también acusan a Meta de no hacer lo suficiente para censurar el modelo. Mientras el ChatGPT de OpenAI rechazaría solicitudes que implican autolesiones, delitos y antisemitismo, LLaMA respondería a estas peticiones. LLaMA es uno de los modelos de lenguaje de gran tamaño de código abierto más extensos y sofisticados disponibles actualmente. Otros modelos, como Alpaca de Stanford, utilizan los pesos de LLaMA, lo que destaca su influencia en el campo de los modelos de lenguaje.
La controversia surge debido a la accesibilidad generalizada de LLaMA. Después de su anuncio, el modelo completo se filtró a través de BitTorrent, lo que permitió que estuviera disponible para cualquier persona. Esta divulgación abierta ha aumentado la calidad y el potencial de uso indebido de los modelos de IA. Los senadores acusan a Meta de no haber previsto la difusión masiva y el potencial de abuso de LLaMA, y cuestionan si hubo una filtración deliberada.
El debate sobre los riesgos y beneficios de los modelos de IA de código abierto continúa. Mientras tanto, la comunidad de modelos de lenguaje de código abierto se centra en la saga en desarrollo de LLaMA. Es importante encontrar un equilibrio entre la innovación y la gestión de riesgos en el campo de la inteligencia artificial.
Meta ha puesto a disposición los pesos de LLaMA para académicos e investigadores, pero su filtración ha llevado a un acceso global sin restricciones a un modelo de nivel GPT. En medio de esta controversia, Meta aún no ha respondido a los comentarios sobre el tema.
El desarrollo de modelos de IA de código abierto está en constante evolución, con nuevos avances lanzados por startups, colectivos y académicos que inundan Internet. A medida que la comunidad continúa explorando las posibilidades y los desafíos de estos modelos, la atención se centra en la saga de LLaMA y en cómo se manejarán las implicaciones de su filtración.






