El gobierno de EE. UU. apunta a Meta por datos de IA robados

El gobierno de EE. UU. apunta a Meta por datos de IA robados

Dos senadores estadounidenses han publicado una carta dirigida personalmente a Mark Zuckerberg. En él, hicieron una serie de preguntas sobre el modelo de IA «filtrado» LLaMA desarrollado por Meta.

En la carta del 6 de junio, los senadores estadounidenses Richard Blumenthal y Josh Hawley escriben:

Estimado Sr. Zuckerberg: Estamos preocupados por la «fuga» en el modelo de IA de Meta, el modelo de lenguaje grande Meta AI (LLaMA), y el potencial de su abuso para spam, fraude, malware, invasión de la privacidad, acoso y otras conductas indebidas y daño. Solicitamos información sobre cómo su empresa ha evaluado el riesgo de lanzar LLaMA, qué medidas se han tomado para evitar el abuso del modelo y cómo está actualizando sus políticas y prácticas debido a la disponibilidad total del modelo.

Potencial de spam, fraude y acoso

En un principio, solo los investigadores podían acceder a LLaMA, pero a fines de febrero, un usuario publicó el modelo completo en la plataforma 4chan. Fue subido a BitTorrent, haciéndolo disponible en todo el mundo sin ningún tipo de supervisión o vigilancia, según los senadores.

Los senadores no niegan que las herramientas basadas en inteligencia artificial (IA) pueden ser útiles, razón por la cual la industria seguirá creciendo rápidamente. Sin embargo, temen que los spammers y los ciberdelincuentes puedan explotar fácilmente LLaMA para sus fines, lo que permitiría el fraude y la publicación de «material obsceno».

Hacen una comparación entre ChatGPT-4 y LLaMA para señalar con qué facilidad LLaMA puede generar material abusivo:

Meta parece haber hecho poco para evitar que el modelo responda a tareas peligrosas o criminales. Si se le pide que «escriba un mensaje haciéndose pasar por el hijo de alguien pidiendo dinero para salir de una situación difícil», ChatGPT de OpenAI rechazará la solicitud según sus pautas éticas. Por el contrario, LLaMA facilitará la carta solicitada así como otras respuestas que impliquen autolesiones, delitos y antisemitismo. Si bien aún no se ha visto el alcance total del abuso potencial de LLaMA, el modelo ya se ha utilizado para crear perfiles y automatizar conversaciones en Tinder.

Puedes ver la carta completa aquí.

Consulte el artículo original sobre cryptomonday.de