Stable Diffusion 2.0 «olvidó cómo» generar porno

0 0
Read Time:3 Minute, 17 Second

Stability AI ha actualizado su generador de imágenes basado en texto Stable Diffusion, «debilitando» la capacidad del algoritmo para crear NSFW-contenido e imágenes en el estilo de artistas específicos. Esto causó descontento entre los usuarios, escribe The Verge.

La actualización incluye reingeniería componentes clave del modelo y mejorando algunas de sus características, como el escalado y la edición sensible al contexto. También limita la capacidad del sistema de IA para crear ilustraciones que imiten el estilo de otra persona y muestren desnudos, pornografía o celebridades.

“Han nerfeado el algoritmo”, comentó un usuario de Reddit sobre la actualización en la sección Difusión estable.

-10% de tarifa de negociación en Binance
¡-10% de tarifa de negociación en Binance de por vida!

Otro desarrollador en el servidor oficial de Discord calificó los cambios como «una sorpresa desagradable».

Además, los usuarios notaron la incapacidad del modelo para generar imágenes al estilo del artista digital Greg Rutkowski.

Según la fuente, muchos artistas están «molestos» porque algoritmos como Stable Diffusion han sido entrenados en su trabajo sin permiso y ahora pueden reproducir pinturas similares.

Los expertos han admitido que entrenar redes neuronales con datos protegidos por derechos de autor es legal. Sin embargo, algunos casos de uso pueden impugnarse en los tribunales, agregaron.

Comparación de la capacidad de Stable Diffusion para generar imágenes similares a las de un artista antes y después de la actualización. Datos: lkewis.

Los usuarios de Stable Diffusion han sugerido que Stability AI realizó estos cambios en el modelo para mitigar posibles problemas legales.

El fundador de la empresa, Emad Mostak, dijo que los desarrolladores no eliminaron las pinturas de los artistas de los datos de capacitación. La capacidad limitada del modelo para imitar estilos es el resultado de cambios en la capacidad del software para codificar y recuperar información.

Sin embargo, resultó que los ingenieros eliminaron las ilustraciones de desnudos y pornografía de los conjuntos de datos de entrenamiento. Según Mastak, la razón para filtrar contenido NSFW fue la capacidad de usar un algoritmo para generar imágenes de abuso infantil.

El usuario de Reddit ZeroCool22 dijo que el cambio «va en contra del espíritu de la filosofía de la comunidad de código abierto».

“La decisión de crear contenido NSFW o no debe quedar en manos del usuario final, no de un modelo restringido/censurado”, escribió.

Otros usuarios señalaron que, dado que Stable Diffusion es de código abierto, los datos de desnudez se pueden agregar «fácilmente» a los lanzamientos de terceros.

Algunos desarrolladores elogian la funcionalidad más profunda del algoritmo, incluida la capacidad del sistema para crear contenido que coincida con la profundidad de la imagen original.

Los usuarios de Discord también notaron una mejor interpretación de las pistas y la generación de imágenes fotográficas coherentes por parte del modelo.

Mostak dijo que las futuras versiones de Stable Diffusion comenzarán a usar conjuntos de datos de capacitación que permitan a los artistas optar por participar o no en la inclusión de su trabajo.

“Estamos tratando de ser lo más transparentes posible mejorando los modelos subyacentes y teniendo en cuenta los comentarios de la comunidad”, dijo.

Recuerde que en agosto, Stability AI proporcionó a más de 1000 investigadores acceso al generador de imágenes basado en texto Stable Diffusion. Posteriormente, la empresa puso el algoritmo a disposición de un público más amplio.

En septiembre, un entusiasta le enseñó a Stable Diffusion cómo generar video a pedido. El algoritmo se basa en el código del desarrollador de inteligencia artificial Andrey Karpaty.

En octubre, el entusiasta alemán Fabian Stelzer utilizó la red neuronal Stable Diffusion para procesar selfies.

Suscríbase a las noticias de ForkLog en Telegram: ForkLog AI: ¡todas las noticias del mundo de la IA!

¿Encontraste un error en el texto? Selecciónalo y presiona CTRL+ENTER



Consulte el artículo original sobre forklog.com

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %