Mostrando entradas con la etiqueta TECNOLOGÍA. Mostrar todas las entradas
Mostrando entradas con la etiqueta TECNOLOGÍA. Mostrar todas las entradas

La preocupación que despierta la tecnología que permite poner el rostro de cualquiera en los cuerpos de actores porno

Imagen de un videomontaje de Emma Watson
Entre los fanáticos de internet hay un dicho conocido como la "Regla 34" que reza: "Si algo existe, habrá porno sobre ello. Sin excepción".

Esto podría aplicarse a una nueva moda en internet que consiste en utilizar la tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.

La tecnología no es nueva. Hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.

Por qué esta compañía de inteligencia artificial está rompiendo miles de vidrios
Así funciona "Arts and Culture", la aplicación de Google que encuentra a tu doble en pinturas famosas (y los riesgos de usarla)
La polémica, sin embargo, se generó en diciembre de 2017 cuando se hizo viral un video en el que el rostro de la actriz israelí Gal Gadot aparecía en el cuerpo de una actriz porno.

FakeappDerechos de autor de la imagenFAKEAPP
Image caption
Según los creadores de Fakeapp, con solo oprimir un botón la aplicación puede crear un videomontaje a partir de las imágenes que se le provean.
También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.

Más fácil
La práctica en principio solo era posible para personas con conocimientos avanzados de informática.

Ahora, estos videomontajes se han vuelto más comunes luego del lanzamiento de Fakeapp, una aplicación que según sus creadores permite hacer el intercambio facial de manera "rápida y fácil".

Se distribuye a través de la red social Reddit y ha sido descargada más de 100.000 veces.

"Esta es una nueva frontera para la pornografía no consensuada y las noticias falsas", escribe la periodista Emma Grey Ellis, de la revista Wired.

"Para muchas personas vulnerables en internet, especialmente las mujeres, esto se parece mucho al final de los tiempos".

Grey Ellis también augura que estos montaje se aplicarán en el ámbito político: "Videos trucados de candidatos políticos diciendo cosas extravagantes en 3, 2...", escribió.

Fotomontaje con la cara de Ariana Grande
Image caption
Imágenes de la cantante Ariana Grande se han utilizado para usarlas con el cuerpo de una actriz pornográfica
Debate público
En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.

"Necesitamos tener un debate fuerte y público", dice Alex Champandard, experto en inteligencia artificial citado por el portal Motherboard.

"Es necesario que todos sepan lo fácil que es falsear imágenes y videos, al punto de que dentro de unos meses no seremos capaces de distinguir falsificaciones", dice Champandard, advirtiendo sobre los riesgos que conlleva el rápido avance de las tecnologías de reconocimiento facial.

Por ahora, algunos sitios ya han comenzado a tomar medidas.

La plataforma Gfycat, en la que se han publicado varios de estos videomontajes que luego se comparten en Reddit, ha comenzado a remover varios de ellos.


El falso Barack Obama creado con inteligencia artificial capaz de hablar como si fuera el original.
Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.

Las políticas de contenido de Reddit prohíben la "pornografía involuntaria".

Champandard, además del desarrollo de tecnologías que detecten videos falsos, menciona que las políticas de internet pueden ayudar a regular lo que ocurre cuando surgen este tipo de falsificaciones.

"De una manera extraña, esto es algo bueno", le dijo Champandard a Motherboard.

"Necesitamos enfocarnos en transformar la sociedad para que sea capaz de lidiar con esto".

línea
READ MORE - La preocupación que despierta la tecnología que permite poner el rostro de cualquiera en los cuerpos de actores porno

Blogger templates

 
 
 

Label

Mostrando entradas con la etiqueta TECNOLOGÍA. Mostrar todas las entradas
Mostrando entradas con la etiqueta TECNOLOGÍA. Mostrar todas las entradas

La preocupación que despierta la tecnología que permite poner el rostro de cualquiera en los cuerpos de actores porno

Imagen de un videomontaje de Emma Watson
Entre los fanáticos de internet hay un dicho conocido como la "Regla 34" que reza: "Si algo existe, habrá porno sobre ello. Sin excepción".

Esto podría aplicarse a una nueva moda en internet que consiste en utilizar la tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.

La tecnología no es nueva. Hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.

Por qué esta compañía de inteligencia artificial está rompiendo miles de vidrios
Así funciona "Arts and Culture", la aplicación de Google que encuentra a tu doble en pinturas famosas (y los riesgos de usarla)
La polémica, sin embargo, se generó en diciembre de 2017 cuando se hizo viral un video en el que el rostro de la actriz israelí Gal Gadot aparecía en el cuerpo de una actriz porno.

FakeappDerechos de autor de la imagenFAKEAPP
Image caption
Según los creadores de Fakeapp, con solo oprimir un botón la aplicación puede crear un videomontaje a partir de las imágenes que se le provean.
También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.

Más fácil
La práctica en principio solo era posible para personas con conocimientos avanzados de informática.

Ahora, estos videomontajes se han vuelto más comunes luego del lanzamiento de Fakeapp, una aplicación que según sus creadores permite hacer el intercambio facial de manera "rápida y fácil".

Se distribuye a través de la red social Reddit y ha sido descargada más de 100.000 veces.

"Esta es una nueva frontera para la pornografía no consensuada y las noticias falsas", escribe la periodista Emma Grey Ellis, de la revista Wired.

"Para muchas personas vulnerables en internet, especialmente las mujeres, esto se parece mucho al final de los tiempos".

Grey Ellis también augura que estos montaje se aplicarán en el ámbito político: "Videos trucados de candidatos políticos diciendo cosas extravagantes en 3, 2...", escribió.

Fotomontaje con la cara de Ariana Grande
Image caption
Imágenes de la cantante Ariana Grande se han utilizado para usarlas con el cuerpo de una actriz pornográfica
Debate público
En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.

"Necesitamos tener un debate fuerte y público", dice Alex Champandard, experto en inteligencia artificial citado por el portal Motherboard.

"Es necesario que todos sepan lo fácil que es falsear imágenes y videos, al punto de que dentro de unos meses no seremos capaces de distinguir falsificaciones", dice Champandard, advirtiendo sobre los riesgos que conlleva el rápido avance de las tecnologías de reconocimiento facial.

Por ahora, algunos sitios ya han comenzado a tomar medidas.

La plataforma Gfycat, en la que se han publicado varios de estos videomontajes que luego se comparten en Reddit, ha comenzado a remover varios de ellos.


El falso Barack Obama creado con inteligencia artificial capaz de hablar como si fuera el original.
Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.

Las políticas de contenido de Reddit prohíben la "pornografía involuntaria".

Champandard, además del desarrollo de tecnologías que detecten videos falsos, menciona que las políticas de internet pueden ayudar a regular lo que ocurre cuando surgen este tipo de falsificaciones.

"De una manera extraña, esto es algo bueno", le dijo Champandard a Motherboard.

"Necesitamos enfocarnos en transformar la sociedad para que sea capaz de lidiar con esto".

línea

Read More