Volver

Resultados de la búsqueda

Resultados para
54 CULTURA DOMINGO, 9 DE SEPTIEMBRE DE 2018 abc. es cultura ABC Nick Bostrom Filósofo Debemos ser capaces de saber cómo controlar la Inteligencia Artificial El pensador sueco es uno de los más influyentes en superinteligencia. Dirige el Instituto del Futuro de la Humanidad en la Universidad de Oxford humanos. ¿Qué nos puede decir? -Creo que gran parte de la expectación en los últimos ocho años se debe a los avances en el aprendizaje profundo; este es un enfoque particular de la IA. Esta manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. La expectación se crea porque parece ser una forma más general de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos (big data) aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente preprogramado por humanos. Este nuevo concepto apunta a la Inteligencia General Artificial (AGI) ¿Puede poner un ejemplo? -El mismo algoritmo que puede aprender a jugar un solo juego de Atari puede aprender a jugar otros juegos de Atari. Con pequeñas modificaciones, puede aprender a jugar al ajedrez, a Go, a reconocer a gatos en imágenes y a reconocer el habla. A pesar de que hay límites a lo que se puede hacer hoy, hay indicios de que podríamos estar llegando al tipo de mecanismo que proporcione una flexibilidad similar a la de la inteligencia humana, una especie de capacidad general de aprendizaje. -Algunas voces son más escépticas. -Si observa los sistemas que se utilizan en la industria, todavía son una especie de híbridos. En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico siguiendo el estilo de la vieja escuela. Esto contribuye a crear la confusión. ¿Cuándo cree que será una realidad la nanotecnología molecular, que permitiría la fabricación de máquinas diminutas para ser introducidas en nuestro organismo y así erradicar muchas enfermedades y prolongar la vida? -Es una buena pregunta... Creo que la nanotecnología probablemente será viable tras el desarrollo de la superinteligencia artificial. Lo mismo ocurre con otras muchas tecnologías avanzadas, que se podrían desarrollar poniendo esa superinteligencia al servicio de la investigación y desarrollo. Pero se podría dar el escenario en que la nanotecnología molecular se desarrollase antes de que la inteligencia artificial despegase. En ese caso, las primeras aplicaciones presentan riesgos a los que tendríamos que sobrevivir, y si tenemos éxito, entonces tendríamos que sobrevivir a los riesgos ligados a la superinteligencia, una vez se desarrollase esta. Por lo tanto, en la medida en que pudiéramos tener una influencia sobre el orden de desarrollo de ambas tecnologías, el objetivo ideal sería obtener la superinteligencia antes que la nanotecnología molecular. -Otro modo de prolongar la vida sería la criogenización. Más de 300 personas tienen su cuerpo crioconservado o sus cerebros neuropreservados en nitrógeno. Usted que ha contratado este servicio, ¿qué expectativas le han animado a ello? -Bueno, en realidad, en los contactos que he tenido con los medios, nunca lo he confirmado. Mi postura siempre ha sido que mis arreglos funerarios son un asunto privado. Sé que ha habido especulaciones por parte de algún periódico hace dos años... También es cierto que algunos de mis colegas son clientes criónicos, y lo han hecho público, como el Dr. Anders Sandberg, que es ELENA CUÉ l transhumanismo es considerar la posibilidad de mejorar la condición humana física, emocional y cognitivamente, utilizando el progreso de la ciencia y la tecnología. Hablo de este movimiento intelectual, científico y cultural con el filósofo Nick Bostrom (Suecia, 1973) fundador junto a David Pearce de la Asociación Transhumanista Mundial y uno de los pensadores más influyentes en superinteligencia. Dirige el Instituto del Futuro de la Humanidad y el Programa de Gobernabilidad de la Inteligencia Artificial en la Universidad de Oxford. Es autor de más de 200 publicaciones, destacando Mejoramiento humano (Teel Editorial) o Superinteligencia, caminos, peligros, estrategias (Teel Editorial) best seller del New York Times y recomendado encarecidamente por Bill Gates y Elon Musk. ¿Qué le llevó a crear la Asociación Transhumanista Mundial? -Bueno, esto sucedió en los años 90. En aquel entonces me parecía que no había un foro adecuado para discutir los impactos del nacimiento de futuras tecnologías y la manera en las que éstas podrían afectar a la condición humana. En ese momento se enfatizaba, sobre todo, lo negativo. La mayoría de los temas relevantes no se discutían en absoluto y las escasas discusiones sobre bioética académica se centraban siempre en inconvenientes como la posible deshumanización por la aplicación de la tecnología para mejorar las capacidades humanas. Era necesario que hubiera otra voz. La asociación fue un esfuerzo para tratar de crear una plataforma para cumplir ese cometido. ¿Y en la actualidad? -No participo en ella desde hace muchos años. A principios de la década de 2000 estos problemas encontraron eco y fueron desarrollados en el ámbito académico. Y la organización dejó de ser una necesidad. -Se habla de que la Inteligencia Artificial está tratando de conseguir una inteligencia con consciencia para aprender de la misma manera que los E Límites en la investigación genética Por el momento, la humanidad no tiene un solo plan coordinado para el futuro, hay muchos países y grupos diferentes, cada uno persiguiendo sus propias iniciativas El poder de la tecnología Mientras más poderosas sean nuestras tecnologías, mayor será la cantidad de daño que podemos hacer si las usamos de manera hostil o imprudentemente uno de nuestros investigadores aquí. -Con una diversidad cultural y códigos morales diferentes como hay en el mundo, ¿cómo se puede llegar a un consenso global sobre los límites éticos en la investigación genética? -Por el momento, la humanidad no tiene realmente un solo plan coordinado para el futuro, hay muchos países y grupos diferentes, cada uno de ellos persiguiendo sus propias iniciativas. -Por lo que dice, se hace imprescindible la previsión. -Si piensa en el desarrollo de las armas nucleares hace 70 años, resultaba difícil fabricar una bomba nuclear. Se necesita uranio altamente enriquecido o plutonio, muy difíciles de conseguir, y se necesitarían centrales eléctricas de tamaño industrial para fabricarlas. Además de una gran cantidad de electricidad, tanta que puedes verla desde el espacio. Es un proceso difícil, no es algo que podrías hacer en tu garaje. Pero supongamos que hubieran descubierto una forma fácil de liberar la energía del átomo; eso podría haber supuesto el final de la civilización humana, ya que hubiera sido imposible de controlar. -Pensarlo inquieta. -Sí, sería en estos casos cuando tal vez la humanidad tendría que adoptar medidas para tener una mayor capacidad de coordinación global; en caso de que surja tal vulnerabilidad o una nueva carrera armamentista. Mientras más poderosas sean nuestras tecnologías, mayor