Para excluir el contenido sexual: Google ayudará a eliminar imágenes falsificadas con IA
Google estará implementando una nueva función y herramienta que añadirá un filtro que difumine y realice un desenfoque a imágenes explícitas o de contenido violento generadas por inteligencia artificial (IA), excluyendo incluso el contenido sexual del buscador en caso se configure con tal objetivo.
La presentación de la herramienta es parte de las nuevas actualizaciones que se implementarán en el Buscador de Google de cara al futuro.
Se informó que la nueva función comenzará a funcionar desde el mes de agosto de forma efectiva en todo el mundo, luego de un periodo de pruebas en algunos usuarios, a los cuales la compañía busca proteger de una forma generalizada, permitiéndoles tener una navegación segura en el internet.
¿En qué consiste el SafeSearch de Google?
El filtrado por SafeSearch está activo de forma predeterminada para todas las cuentas del buscador, siendo configurable y se puede desactivar manualmente.
Asimismo, en Youtube y otros servicios de Google está prohibido publicar contenidos pornográficos y explícitos, así como imágenes de extrema violencia.
Esto significa que tampoco se puede difundir clips extraídos de películas, programas o cualquier tipo de material no pornográfico para mostrar solo contenido sexual -sea real o artístico-, ni videos donde se vean actos inapropiados.
Con dichas actualizaciones, además, se facilita la eliminación de cualquier imagen personal sexualmente explicita que se haya publicado sin consentimiento -incluyendo a las generadas con inteligencia artificial- debido a que una vez se realice la denuncia o notificación al buscador mediante un formulario, no se mostrarán en el buscador.
La medida es parte de los esfuerzos de la compañía tecnológica por ofrecer más herramientas para que los usuarios controlen su privacidad, en tiempos aún más complicados, donde la inteligencia artificial permite cometer delitos de una forma más 'sencilla'.
El caso del colegio St.George
La actualización del sistema de búsqueda de Google y la censura que incluirá contra contenidos sexuales generados por inteligencia artificial ayudará a proteger a poblaciones vulnerables, en tiempos donde ni siquiera los menores de edad están a salvo de la manipulación de imágenes, como dejó en claro el caso que estalló en Lima la presente semana.
Un grupo de padres de familia realizaron un plantón el pasado lunes a las afueras de la institución educativa St.George, en Lima, tras descubrir que alumnos de segundo de secundaria del colegio adulteraron fotografías de 15 de sus compañeras para convertirlas en contenido sexual y las comercializaron en internet.
Los progenitores de las menores denunciaron que los estudiantes utilizaron inteligencia artificial para comercializar dichas fotos, las cuales estaban editadas. La Policía continúa realizando investigaciones para llegar al fondo del caso y hacer justicia contra los responsables.
El buscador Google estará eliminando imágenes falsificadas mediante IA en su buscador, excluyendo contenido sexual del mismo.