IFRAME: https://www.googletagmanager.com/ns.html?id=GTM-TTM3HX (Submit) Menú (Submit) Buscar X ____________________ (Submit) Buscar Ir a contenido Iniciar sesión Iniciar sesión Accede con tu cuenta de Facebook, Twitter o Google+ (Submit) Conéctate con Facebook (Submit) Conéctate con Twitter (Submit) Conéctate con Google+ Inicia sesión con tu cuenta de El Periódico ____________________ ____________________ [_] RecordarmeOlvidé la contraseña [BUTTON Input] (not implemented)______ Política de privacidad Si todavía no eres usuario, Regístrate El Periódico * * Temas del día: * Sentencia 'caso Palau' * Fèlix Millet * Convergència * Dembélé * Lady Gaga * Blue Monday * Tabarnia * Más Suscríbete 15 ene 2018 * Portada * Actualidad + Últimas noticias + Internacional + Política + Economía + Sociedad + Barcelona + Opinión + +Periódico + Tecnología + Vídeos + Fotos + Gráficos + Motor Zeta * Deportes + Barça + Fórmula 1 + MotoGP + Baloncesto + NBA + Tenis + Ciclismo + La Grada * Cultura + On Barcelona + Música directa + Venta de entradas + En familia * Extra + Gente + Televisión + Belleza + Alta Tendencia * Entre todos + Cartas de los lectores + Periodismo con el ciudadano + La denuncia + El Radar * Servicios + Edición impresa + Loterías y sorteos + Programación TV + Horóscopo + El tiempo + Cartelera de cine + El tráfico en BCN + Hemeroteca + Busco piso + Monográficos + Pistas de esquí + Promociones + Tienda * On BARCELONA Selecciona el Idioma: * Castellano * Catalán Síguenos en: * Facebook * Twitter * Google+ * Instagram eXtra Ver más * Gente * Televisión * Belleza * Alta Tendencia Ver más COLABORACIÓN SILICON VALLEY ¿Desierto o desnudo? La inteligencia artificial aún no los sabe distinguir La Policía londinense trabaja en un 'software' para rastrear fotos de delitos de abusos sexuales, pero aún comete fallos El Periódico Barcelona - Jueves, 21/12/2017 | Actualizado el 22/12/2017 a las 17:12 CET * * * * Botón Facebook Messenger * + + + 0 La Policía londinense utiliza un software para buscar fotos porno delictivas, pero aún no sabe distinguir un desierto de un desnudo. La Policía londinense utiliza un software para buscar fotos porno delictivas, pero aún no sabe distinguir un desierto de un desnudo. / periodico La policía londinense confía en tener lista una inteligencia artificial (IA) capaz de detectar imágenes pornográficas y de abusos sexuales a niños en un par de años. Para ello, están desarrollando un software de reconocimiento de fotos. Sin embargo, aún tiene que mejorar mucho, ya que esta IA aún no es capaz de diferenciar entre la foto de un desierto y un desnudo. Tal como ha informado el rotativo británico The Telegraph, el departamento forense digital de la Policía Metropolitana de Londres analizó el año pasado 53.000 dispositivos en busca de pruebas incriminatorias, pero el programa aún no es lo suficientemente sofisticado como para detectar toda clase de archivos pornográficos. "Tenemos que clasificar las imágenes porno para diferentes sentencias, y este trabajo ha de realizarse por personas de momento", ha informado Mark Stokes, jefe forense digital del departamento. Más información biometric eye iris scan stock xsm Una inteligencia artificial 've' en las caras la orientación sexual No es piel, es arena Por ahora el software que utiliza la policía ya distingue imágenes de drogas, armas y dinero. Pero cuando analiza desnudos, falla. "A veces, cuando se trata de un desierto, el programa cree que es una imagen porno", ha detallado Stokes. El jefe policial asegura que revisar los dispositivos en busca de fotos delictivas es "mentalmente agotador", por lo que confía en poder "descargar" este trabajo en "máquinas insensibles". Stokes ha explicado a The Telegraph que su departamento está trabajando con "proveedores de Silicon Valley" para ayudar a entrenar a la IA. Sigue a Extra en Facebook IFRAME: https://www.facebook.com/plugins/page.php?href=https%3A%2F%2Fwww.facebo ok.com%2FExtra-El-Peri%25C3%25B3dico-411283469204296%2F&tabs&width=300& height=130&small_header=false&adapt_container_width=true&hide_cover=fal se&show_facepile=false&appId=112671971426 Temas: Londres Inteligencia artificial Porno Pederastia Abusos sexuales (Submit) VER COMENTARIOS 0 Comentarios cargando Lo más visto * Edición Global * Catalunya 1. El vídeo 'oficial' de Tabarnia 2. Sentencia del 'caso Palau': Condenados CDC, Millet y Montull | Últimas noticias 3. "Catalunya se ha vuelto antipática", dicen en Francia 4. 'Caso Palau': Convergència, condenada por la Audiencia de Barcelona 5. La inacción del Parlament deja cientos de títulos universitarios en el alero 1. El vídeo 'oficial' de Tabarnia 2. Sentencia del 'caso Palau': Condenados CDC, Millet y Montull | Últimas noticias 3. 'Caso Palau': Convergència, condenada por la Audiencia de Barcelona 4. "Catalunya se ha vuelto antipática", dicen en Francia 5. La inacción del Parlament deja cientos de títulos universitarios en el alero * * * * Botón Facebook Messenger * + + + 0 elPeriódico * Facebook * Twitter * Google+ * Instagram Quiénes somos Contacto RSS Mapa del sitio Publicidad Aviso legal Política de cookies grupo zeta PRENSA Sport El Periódico de Aragón Diario La Grada El Periódico Extremadura Córdoba La Crónica de Badajoz Mediterráneo REVISTAS Woman Viajar Cuore Primera Línea Interviú Tiempo Stilo Digital Camera Autohebdo Sport OTROS NEGOCIOS Zeta Gestión de Medios Zeta Kiosko