#RSS de Tendencias El País Retina retina.elpais.com publisher (Submit) Menú El País Economía Retina Newsletter (Submit) Desplegar (Submit) Cerrar Entra en EL PAÍS Conéctate ¿No estás registrado? Crea tu cuenta * Transformación digital * Innovación * Talento * Eventos Facebook Twitter Linkedin (Submit) Alto contraste Tamaño letra (Submit) a^- (Submit) A^+ ____________________ (Submit) Buscar Información * Transformación digital (Submit) Desplegar Tendencias + Smart cities + Transporte y energía + Fintech + Sociedad + Tecnología e industria * Innovación (Submit) Desplegar Innovación + Digitalización + Estrategia empresarial + Transformación + Emprendimiento + Recursos humanos * Talento (Submit) Desplegar Talento + Productividad + Liderazgo + Carrera + Evolución personal + Consumo * Vídeos * Newsletter Experiencias * Eventos Sigue a Retina * Facebook * Twitter * Linkedin * Firmas * Nuevas Fronteras * Think with Google * YouTube Ads Leaderboard * ¿Sabías qué…? * Casos de éxito Entrevista Nick Bostrom: “No tendremos una segunda oportunidad con la inteligencia artificial” Por Javier Cortés Olívia L. Bueno (vídeo) El filósofo y profesor de la Universidad de Oxford alerta de los riesgos que plantea la tecnología y advierte de la necesidad de anticiparnos antes de que sea tarde Madrid 9 DIC 2017 - 13:42 CET FOLLOW * Seguir Nick Bostrom (Helsingborg, Suecia, 1973) es una de las voces más autorizadas para hablar de los peligros de los avances tecnológicos en nuestro tiempo. Este filósofo dirige el Instituto para el Futuro de la Humanidad y el Centro de Investigación de Estrategia de Inteligencia Artificial de la Universidad de Oxford, donde ejerce como profesor. Sus teorías sobre el riesgo que representaría la creación de una superinteligencia para el mundo han influido en el pensamiento de figuras como Bill Gates o Elon Musk. Nick Bostrom durante la entrevista en la Fundación Giner de los Ríos Nick Bostrom durante la entrevista en la Fundación Giner de los Ríos Nos recibe en un pequeño camerino de la Fundación Giner de los Ríos, a unos pasos del escenario donde acaba de impartir una ponencia en el marco de un evento organizado por Adigital sobre cómo debemos afrontar la transición hacia la era de las máquinas inteligentes. Tiene que coger un vuelo en un par de horas y antes debe pasar por el hotel, pero se toma su tiempo antes de responder a cada pregunta y detiene su discurso varias veces para buscar las palabras precisas. Es evidente que se encuentra cómodo especulando sobre el futuro que nos espera. ¿Cuáles son los principales riesgos tecnológicos con los que debe lidiar la humanidad? Depende del contexto temporal que tengamos en mente. Si estamos pensando en las aplicaciones actuales, deberíamos estar preocupados por una serie de cosas que no tienen nada que ver con los peligros que vemos si miramos hacia el futuro, donde las máquinas tendrán niveles de inteligencia muy superiores a los de los humanos. Hoy, uno de nuestros principales focos de atención apunta a que nuestros sistemas de información sean transparentes y a la vez nos permitan ciertos niveles de privacidad. Es muy importante que configuremos correctamente nuestra arquitectura informativa. Ahora nos interesa pensar en la forma en que se establecen las relaciones sociales en internet, la creación de filtros burbuja… ¿Y si echamos la vista al futuro? Nos encontramos con un tipo de preocupaciones completamente distintas. No es difícil pensar en una inteligencia artificial que sea cada vez más poderosa cuyos objetivos no estén perfectamente alineados con los objetivos humanos. Y el reto aquí consiste en tener la tecnología que nos haga capaces de diseñar estos poderosos sistemas artificiales alineados con los valores humanos y que siempre hagan lo que nosotros queremos que hagan. ¿Es la inteligencia artificial nuestra única preocupación a largo plazo? Existen otras áreas que también tienen un gran potencial riesgo para la humanidad. La biotecnología sería una de ellas. Si descubrimos cómo hacer mejores herramientas para manipular virus, bacterias y otros microrganismos, haríamos posible la creación de patógenos de diseño, que podría utilizar algún grupo terrorista para crear un nuevo tipo de enfermedad. Con cada nuevo avance técnico nos vamos aproximando a estos escenarios y, a medida que la tecnología madura, crece su potencial destructivo. ¿Considera que estamos avanzando demasiado rápido como sociedad? Creo que cada vez que realizamos un gran descubrimiento, estamos metiendo la mano en una urna llena de pelotas y sacando una. Con cada pelota que sacamos, vamos alcanzando el progreso social. Toda la historia de la humanidad se ha basado en el proceso de hacer estos inventos. La cuestión es que muchas de estas pelotas son beneficiosas, pero hay otras que pueden ser perjudiciales. Imagina lo que pasaría si una de las pelotas que sacamos es una tecnología que significa invariablemente la destrucción de la civilización que la descubrió. El problema aquí es que todavía no hemos descubierto una manera de volver a meter la pelota en la urna si no nos gusta: una vez que se ha inventado una tecnología, no puede “desinventarse”. ¿Hemos sacado ya alguna de esas pelotas? No es difícil adivinar cómo sería. Piensa, por ejemplo, en lo que pasaría si el desarrollo de armas nucleares hubiera sido posible con materiales más fáciles de conseguir. Si en lugar de plutonio o uranio enriquecido, que no son precisamente accesibles, pudiera crearse una bomba atómica con un poco de arena, sería el fin de la civilización, porque bastarían unas pocas personas que quisieran causar daño para posibilitar una gran destrucción. ¿Podemos evitar que la inteligencia artificial termine siendo una de estas tecnologías? Si la inteligencia artificial termina siendo capaz de hacer todo o buena parte de nuestro trabajo intelectual mejor que nosotros, tendremos en nuestras manos el último invento que tendrá que realizar la humanidad. El problema está en la transición hasta la era de la inteligencia artificial: tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad. Si desarrollamos una inteligencia artificial que no esté alineada con nuestros propósitos, no creo que podamos volver a meter esa pelota en la urna y empezar de cero. No somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización. ¿Qué tipo de políticas deben tomar los gobiernos y compañías tecnológicas al respecto? Se nos presenta la oportunidad de acercarnos a la revolución de la inteligencia artificial de forma coordinada. Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo. Si esto sale bien, los beneficios para la sociedad serían inmensos, pero podríamos sufrir consecuencias muy negativas si nuestra forma de abordar el problema consistiera en permitir que las empresas y naciones compitieran para ver quien consigue mejores resultados. (Submit) Archivado en: * Transformación digital * Filosofía * Inteligencia artificial * Computación * Antropología * Tecnología digital * Ciencias sociales * Historia contemporánea * Empresas * Informática * Historia * Tecnología * Economía * Cultura * Industria * Ciencia Por Javier Cortés Javier Cortés * Seguir Olívia L. Bueno (vídeo) Olívia L. Bueno (vídeo) Retina 15/01/2018 Soledad Antelada, una hispana en el corazón de la ciberseguridad 01 Soledad Antelada, una hispana en el corazón de la ciberseguridad La hispano argentina investiga amenazas en el centro donde se fraguaron los cimientos de Internet 02 ¿A qué juegan los ‘gamers’? ‘League of Legends’, ‘Clash Royale’ o ‘Hearthstone’ son algunos de los juegos que están revolucionando el panorama de los eSports en nuestro país a nivel de audiencias, competición e innovación en el sector. ¿A qué juegan los ‘gamers’? 03 ¿Y si los robots que viven en nuestros móviles prescinden de Internet? ¿Y si los robots que viven en nuestros móviles prescinden de Internet? La inteligencia artificial basada en métodos híbridos que combinan la tecnología de la nube con otra alojada en el hardware del propio terminal reducen problemas de latencia, estabilidad y privacidad. 04 Lecciones de ética para máquinas que ‘piensan’ y toman decisiones La inteligencia artificial precisa de unas normas que regulen los procesos de diseño y evaluación de esa tecnología para anticiparse a posibles usos inmorales, inapropiados o maliciosos. Lecciones de ética para máquinas que ‘piensan’ y toman decisiones ¿Dónde se guarda lo que subes a la nube? 05 ¿Dónde se guarda lo que subes a la nube? Almacena toda nuestra actividad digital y es clave para el crecimiento empresarial global. Visitamos un centro de datos en el barrio madrileño bautizado como 'Silicon Alley' para comprobar cómo funciona la nube por dentro. 06 Del ‘big data’ al ‘smart data’: encontrar la mina de oro en la montaña de datos La información es importante, sí, pero demasiada puede llegar a ser confusa y hasta contraproducente, explica el cofundador de Ofertia Del ‘big data’ al ‘smart data’: encontrar la mina de oro en la montaña de datos 07 Qué es un minero de bitcoin... y por qué llegas tarde al negocio Qué es un minero de bitcoin... y por qué llegas tarde al negocio Trabajan en 'blockchain', cobran en bitcoins y son mayoritariamente chinos. Presentamos a los mineros de las criptomonedas, el elemento clave para que todo funcione. 08 ¿Y si pudiéramos ordenar el alud de datos que generan los hospitales? Cada año se producen 320 millones de consultas clínicas en España. IOMED ha desarrollado un software para analizar de forma estructurada toda esa información. ¿Y si pudiéramos ordenar el alud de datos que generan los hospitales? Guía básica para entender de una vez qué es eso del ‘blockchain’ 09 Guía básica para entender de una vez qué es eso del ‘blockchain’ ¿Harto de escuchar que el 'blockchain' va a suponer una revolución? Te explicamos por qué puede ser clave en el futuro. Los drones ganan margen de acción (y lastre burocrático) 10 Los drones ganan margen de acción (y lastre burocrático) La nueva normativa permite vuelos nocturnos y en ciudad, aunque sujetos al visto bueno de la AESA. El sector aplaude el decreto, aunque lo considera conservador. (Submit) Comentarios Normas Entra en EL PAÍS E-mail ____________________ Contraseña ____________________ (Submit) Entra * Recupera contraseña * ¿No estás registrado? Crea tu cuenta Retina Síguenos en Facebook Twitter Linkedin Newsletter Eventos Suscríbete El País © Ediciones EL PAÍS, s.l. * Contacto * Venta * Publicidad * Aviso legal * Política cookies * Mapa * El País en Kioskoymás * Índice * RSS (Submit) Facebook (Submit) Twitter (Submit) Linkedin Ir TOP