martes, 2 de mayo de 2017

LOS RIESGOS DE LA INTELIGENCIA ARTIFICIAL - THE RISKS OF ARTIFICIAL INTELLIGENCE.


Fuente:futuroesone.











Bautizado como “el filósofo del fin del mundo” por el New Yorker, Nick Bostrom no tiene aspecto de loco apocalíptico. Es más bien la imagen de la mesura y la reflexión, aunque sus ideas desaten polémicas cada vez que las expone y gane acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores. Entre estos últimos se encuentran mentes tan brillantes como las de Stephen Hawking o visionarios de las nuevas tecnologías como Bill Gates o Elon Musk. Lo que ha llamado la atención de este filósofo sueco, director y fundador del Future of Humanity Institute en la universidad de Oxford, son sus desarrollos acerca de los peligros que acechan a nuestra especie detrás de la inteligencia artificial. Frente al optimismo ingenuo de quienes ven en las máquinas pensantes la solución a todos nuestros problemas, Bostrom advierte que debemos tener cautela. O, dicho en sus propias palabras, dejar de comportarnos como “niños pequeños jugando con una bomba”.






La posibilidad de que los ordenadores o los robots que estamos construyendo nos superen en inteligencia algún día no es descabellada. Lo que hasta hace muy poco era terreno de la ciencia ficción debe observarse ahora como un horizonte muy probable: “creo que si hay algo que puede cambiar fundamentalmente la naturaleza de la vida en la Tierra, eso es la transición hacia la era de la inteligencia de las máquinas. No tenemos otra opción que enfrentar este desafío. La superinteligencia de las máquinas es como un portal que la humanidad debe atravesar obligatoriamente, pero debemos asegurarnos de no chocar contra el muro cuando lo hagamos”. Aunque pudiera parecer lo contrario, el de Bostrom no es un mensaje desesperanzador ni predica -como si fuera una versión digital de los luditas que destrozaron las máquinas durante la primera revolución industrial- una guerra contra las nuevas tecnologías. De hecho su confianza en las posibilidades de la ciencia le llevó a fundar en 1998 la Asociación Mundial Transhumanista, que defiende potenciar las capacidades humanas a través de una hibridación con la tecnología.






En una entrevista con El País, Bostrom incidía en que su función es llamar a una reflexión profunda, no demonizar las máquinas: “hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones”.






Como defiende en su libro Superinteligencia: Caminos, Peligros, Estrategias, publicado en 2014 (y que entró rápidamente en la lista de los más vendidos del New York Times Book Review) el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo.

http://www.nickbostrom.com





Un futuro tenebroso, películas de ciencia ficción que al final las catalogamos dentro del cine de terror, un futuro donde nadie preferiría vivir. Un futuro y  esperanza  donde proyectamos nuestras aprensiones.


















No hay comentarios:

Publicar un comentario