He aquí por qué los científicos piensan que debería preocuparse por la inteligencia artificial

  • Michael Cain
  • 0
  • 3040
  • 600
Anuncio

En los últimos meses, es posible que haya leído la cobertura que rodea un artículo, en coautoría de Stephen Hawking, que discute los riesgos asociados con la inteligencia artificial. El artículo sugirió que la IA puede representar un grave riesgo para la raza humana. Hawking no está solo allí: Elon Musk y Peter Thiel son figuras públicas intelectuales que han expresado preocupaciones similares (Thiel ha invertido más de $ 1.3 millones para investigar el problema y las posibles soluciones).

La cobertura del artículo de Hawking y los comentarios de Musk han sido, por no decir demasiado bien, un poco joviales. El tono ha sido mucho "mira esta cosa extraña por la que están preocupados todos estos geeks". Se da poca consideración a la idea de que si algunas de las personas más inteligentes de la Tierra te advierten que algo podría ser muy peligroso, podría valer la pena escucharlo..

Esto es comprensible: la inteligencia artificial que se apodera del mundo ciertamente suena muy extraña e inverosímil, tal vez debido a la enorme atención ya dada a esta idea por los escritores de ciencia ficción. Entonces, ¿qué ha asustado a todas estas personas nominalmente sensatas y racionales??

¿Qué es la inteligencia??

Para hablar sobre el peligro de la Inteligencia Artificial, podría ser útil comprender qué es la inteligencia. Para comprender mejor el problema, echemos un vistazo a una arquitectura de IA de juguete utilizada por investigadores que estudian la teoría del razonamiento. Este juguete AI se llama AIXI y tiene una serie de propiedades útiles. Sus objetivos pueden ser arbitrarios, se adapta bien a la potencia informática y su diseño interno es muy limpio y directo..

Además, puede implementar versiones simples y prácticas de la arquitectura que pueden hacer cosas como jugar Pacman, si lo desea. AIXI es el producto de un investigador de IA llamado Marcus Hutter, posiblemente el principal experto en inteligencia algorítmica. Ese es él hablando en el video de arriba.

AIXI es sorprendentemente simple: tiene tres componentes principales: aprendiz, planificador, y función de utilidad.

  • los aprendiz toma cadenas de bits que corresponden a la entrada sobre el mundo exterior, y busca a través de programas de computadora hasta encontrar los que producen sus observaciones como salida. Estos programas, juntos, le permiten adivinar cómo será el futuro, simplemente ejecutando cada programa hacia adelante y ponderando la probabilidad del resultado por la duración del programa (una implementación de la Navaja de Occam).
  • los planificador busca a través de posibles acciones que el agente podría tomar, y utiliza el módulo de aprendizaje para predecir qué sucedería si tomara cada una de ellas. Luego los califica de acuerdo a cuán buenos o malos son los resultados pronosticados, y elige el curso de acción que maximiza la bondad del resultado esperado multiplicado por la probabilidad esperada de lograrlo.
  • El último módulo, el función de utilidad, es un programa simple que toma una descripción de un estado futuro del mundo y calcula una puntuación de utilidad para él. Este puntaje de utilidad es qué tan bueno o malo es ese resultado, y es usado por el planificador para evaluar el estado mundial futuro. La función de utilidad puede ser arbitraria.
  • Tomados en conjunto, estos tres componentes forman un optimizador, que se optimiza para un objetivo particular, independientemente del mundo en el que se encuentre.

Este modelo simple representa una definición básica de un agente inteligente. El agente estudia su entorno, construye modelos de él y luego usa esos modelos para encontrar el curso de acción que maximizará las probabilidades de que obtenga lo que quiere. AIXI es similar en estructura a una IA que juega ajedrez u otros juegos con reglas conocidas, excepto que es capaz de deducir las reglas del juego al jugarlo, comenzando desde cero conocimiento.

AIXI, dado el tiempo suficiente para calcular, puede aprender a optimizar cualquier sistema para cualquier objetivo, por complejo que sea. Es un algoritmo generalmente inteligente. Tenga en cuenta que esto no es lo mismo que tener inteligencia similar a la humana (la IA de inspiración biológica es un tema completamente diferente Giovanni Idili de OpenWorm: cerebros, gusanos e inteligencia artificial Giovanni Idili de OpenWorm: cerebros, gusanos e inteligencia artificial Simulando un El cerebro humano está muy lejos, pero un proyecto de código abierto está dando los primeros pasos vitales, simulando la neurología y la fisiología de uno de los animales más simples conocidos por la ciencia. En otras palabras, AIXI puede ser capaz de burlar a cualquier ser humano en cualquier tarea intelectual (con suficiente poder de cómputo), pero podría no ser consciente de su victoria. Máquinas de pensamiento: lo que la neurociencia y la inteligencia artificial pueden enseñarnos sobre las máquinas de pensamiento de conciencia: qué La neurociencia y la inteligencia artificial pueden enseñarnos sobre la conciencia. La construcción de máquinas y software artificialmente inteligentes puede enseñarnos sobre el funcionamiento de la conciencia y la naturaleza de la mente humana misma.? .

Como una IA práctica, AIXI tiene muchos problemas. Primero, no tiene forma de encontrar aquellos programas que producen la salida que le interesa. Es un algoritmo de fuerza bruta, lo que significa que no es práctico si no tiene una computadora arbitrariamente poderosa. Cualquier implementación real de AIXI es necesariamente una aproximación, y (hoy) generalmente es bastante burda. Aún así, AIXI nos da una visión teórica de cómo podría ser una poderosa inteligencia artificial y cómo podría razonar.

El espacio de valores

Si ha hecho alguna programación de computadora Los fundamentos de la programación de computadoras 101 - Variables y tipos de datos Los fundamentos de la programación de computadoras 101 - Variables y tipos de datos Habiendo introducido y hablado un poco sobre la programación orientada a objetos antes y de dónde viene su homónimo, pensé que era hora pasamos por los fundamentos absolutos de la programación de una manera no específica del lenguaje. Esto ..., sabes que las computadoras son desagradables, pedante y mecánicamente literales. La máquina no sabe ni le importa lo que quiere que haga: solo hace lo que le han dicho. Esta es una noción importante cuando se habla de inteligencia artificial.

Con esto en mente, imagine que ha inventado una poderosa inteligencia artificial: ha creado algoritmos inteligentes para generar hipótesis que coincidan con sus datos y para generar buenos planes de candidatos. Su IA puede resolver problemas generales y puede hacerlo de manera eficiente en hardware de computadora moderno.

Ahora es el momento de elegir una función de utilidad, que determinará cuáles son los valores de AI. ¿Qué debe pedirle que valore? Recuerde, la máquina será odiosa, literalmente pedante sobre cualquier función que le pida que maximice, y nunca se detendrá: no hay ningún fantasma en la máquina que se 'despierte' y decida cambiar su función de utilidad, independientemente de cuántos mejoras de eficiencia que hace a su propio razonamiento.

Eliezer Yudkowsky lo expresó así:

Como en toda la programación de computadoras, el desafío fundamental y la dificultad esencial de AGI es que si escribimos el código incorrecto, la IA no revisará automáticamente nuestro código, marcará los errores, descubrirá lo que realmente queríamos decir y lo haría. en lugar. Los no programadores a veces imaginan un AGI, o programas informáticos en general, como análogos a un servidor que sigue las órdenes sin cuestionamientos. Pero no es que la IA sea absolutamente obediente a su código; más bien, la IA simplemente es el código.

Si está tratando de operar una fábrica, y le dice a la máquina que valore hacer clips y luego le da el control de un montón de robots de fábrica, puede regresar al día siguiente para descubrir que se ha quedado sin cualquier otra forma de materia prima, mató a todos sus empleados e hizo clips con sus restos. Si, en un intento de corregir su error, reprograma la máquina para simplemente hacer felices a todos, puede regresar al día siguiente para encontrarla poniendo cables en el cerebro de las personas.

El punto aquí es que los humanos tienen muchos valores complicados que asumimos se comparten implícitamente con otras mentes. Valoramos el dinero, pero valoramos más la vida humana. Queremos ser felices, pero no necesariamente queremos poner cables en nuestros cerebros para hacerlo. No sentimos la necesidad de aclarar estas cosas cuando damos instrucciones a otros seres humanos. Sin embargo, no puede hacer este tipo de suposiciones cuando diseña la función de utilidad de una máquina. Las mejores soluciones bajo las matemáticas sin alma de una función de utilidad simple son a menudo soluciones que los seres humanos rechazarían por ser moralmente horribles.

Permitir que una máquina inteligente maximice una función de utilidad ingenua casi siempre será catastrófica. Como dice el filósofo de Oxford Nick Bostom,

No podemos asumir alegremente que una superinteligencia necesariamente compartirá cualquiera de los valores finales estereotípicamente asociados con la sabiduría y el desarrollo intelectual en la curiosidad científica humana, la preocupación benevolente por los demás, la iluminación espiritual y la contemplación, la renuncia a la adquisición material, el gusto por la cultura refinada o por los placeres simples de la vida, la humildad y el desinterés, etc..

Para empeorar las cosas, es muy, muy difícil especificar la lista completa y detallada de todo lo que las personas valoran. La pregunta tiene muchas facetas, y olvidar incluso una sola es potencialmente catastrófica. Incluso entre los que conocemos, hay sutilezas y complejidades que hacen que sea difícil escribirlas como sistemas limpios de ecuaciones que podemos dar a una máquina como una función de utilidad..

Algunas personas, al leer esto, concluyen que construir IA con funciones de utilidad es una idea terrible, y deberíamos diseñarlas de manera diferente. Aquí también hay malas noticias: puede probar formalmente que cualquier agente que no tenga algo equivalente a una función de utilidad no puede tener preferencias coherentes sobre el futuro.

Mejoramiento recursivo

Una solución al dilema anterior es no dar a los agentes de IA la oportunidad de lastimar a las personas: darles solo los recursos que necesitan para resolver el problema en la forma en que pretenden resolverlo, supervisarlos de cerca y mantenerlos alejados de las oportunidades para hacer mucho daño Desafortunadamente, nuestra capacidad para controlar máquinas inteligentes es altamente sospechosa.

Incluso si no son mucho más inteligentes que nosotros, existe la posibilidad de que la máquina “oreja” - recopile un mejor hardware o realice mejoras en su propio código que lo haga aún más inteligente. Esto podría permitir que una máquina supere la inteligencia humana en muchos órdenes de magnitud, burlando a los humanos en el mismo sentido que los humanos burlan a los gatos. Este escenario fue propuesto por primera vez por un hombre llamado I. J. Good, quien trabajó en el proyecto de análisis de criptas Enigma con Alan Turing durante la Segunda Guerra Mundial. Lo llamó un “Explosión de inteligencia,” y describió el asunto así:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; indudablemente habría un “explosión de inteligencia,” y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil.

No se garantiza que una explosión de inteligencia sea posible en nuestro universo, pero parece probable. A medida que pasa el tiempo, las computadoras obtienen información más rápida y básica sobre la acumulación de inteligencia. Esto significa que el requerimiento de recursos para hacer ese último salto a una inteligencia general y boostrapping baja cada vez más. En algún momento, nos encontraremos en un mundo en el que millones de personas pueden conducir a Best Buy y recoger el hardware y la literatura técnica que necesitan para construir una inteligencia artificial que se mejore por sí misma, que ya hemos establecido que puede ser muy peligroso. Imagine un mundo en el que podría hacer bombas atómicas con palos y rocas. Ese es el tipo de futuro que estamos discutiendo.

Y, si una máquina hace ese salto, podría superar rápidamente a la especie humana en términos de productividad intelectual, resolviendo problemas que mil millones de humanos no pueden resolver, de la misma manera que los humanos pueden resolver problemas que mil millones de gatos pueden ' t.

Podría desarrollar robots potentes (o bio o nanotecnología) y ganar relativamente rápido la capacidad de remodelar el mundo a su antojo, y habría muy poco que pudiéramos hacer al respecto. Tal inteligencia podría despojar a la Tierra y al resto del sistema solar de piezas de repuesto sin muchos problemas, en su camino a hacer lo que le digamos. Parece probable que tal desarrollo sería catastrófico para la humanidad. Una inteligencia artificial no tiene que ser maliciosa para destruir el mundo, simplemente catastróficamente indiferente.

Como dice el dicho, “La máquina no te ama ni te odia, pero estás hecho de átomos que puedes usar para otras cosas..”

Evaluación de riesgos y mitigación

Entonces, si aceptamos que diseñar una poderosa inteligencia artificial que maximice una función de utilidad simple es malo, ¿en cuántos problemas estamos realmente? ¿Cuánto tiempo tenemos antes de que sea posible construir ese tipo de máquinas? Por supuesto, es difícil saber.

Los desarrolladores de inteligencia artificial están progresando. 7 sitios web sorprendentes para ver lo último en programación de inteligencia artificial 7 sitios web increíbles para ver lo último en programación de inteligencia artificial La inteligencia artificial aún no es HAL desde 2001: The Space Odyssey ... pero nos estamos acercando terriblemente. Efectivamente, un día podría ser tan similar a las ollas de ciencia ficción que Hollywood está produciendo ... Las máquinas que construimos y los problemas que pueden resolver han ido aumentando constantemente. En 1997, Deep Blue podía jugar ajedrez a un nivel superior al de un gran maestro humano. En 2011, Watson de IBM pudo leer y sintetizar suficiente información de manera profunda y rápida para vencer a los mejores jugadores humanos en un juego abierto de preguntas y respuestas plagado de juegos de palabras y juegos de palabras: eso es un gran progreso en catorce años.

En este momento, Google está invirtiendo mucho en la investigación del aprendizaje profundo, una técnica que permite la construcción de redes neuronales potentes mediante la construcción de cadenas de redes neuronales más simples. Esa inversión le permite hacer grandes progresos en el reconocimiento de voz e imagen. Su adquisición más reciente en el área es una startup de Deep Learning llamada DeepMind, por la cual pagaron aproximadamente $ 400 millones. Como parte de los términos del acuerdo, Google acordó crear una junta de ética para garantizar que su tecnología de inteligencia artificial se desarrolle de manera segura.

Al mismo tiempo, IBM está desarrollando Watson 2.0 y 3.0, sistemas que son capaces de procesar imágenes y videos y argumentar para defender conclusiones. Ofrecieron una demostración simple y temprana de la capacidad de Watson para sintetizar argumentos a favor y en contra de un tema en la demostración de video a continuación. Los resultados son imperfectos, pero un paso impresionante independientemente.

Ninguna de estas tecnologías son peligrosas en este momento: la inteligencia artificial como campo todavía está luchando para igualar las habilidades dominadas por los niños pequeños. La programación de computadoras y el diseño de IA es una habilidad cognitiva de alto nivel muy difícil, y probablemente será la última tarea humana en la que las máquinas se vuelvan competentes. Antes de llegar a ese punto, también tendremos máquinas omnipresentes que pueden conducir. Así es como llegaremos a un mundo lleno de autos sin conductor. Aquí es cómo llegaremos a un mundo lleno de autos sin conductor. La conducción es tediosa, peligrosa, y exigente tarea. ¿Podría algún día ser automatizado por la tecnología de automóviles sin conductor de Google? , practicar medicina y derecho, y probablemente también otras cosas, con profundas consecuencias económicas.

El tiempo que nos llevará llegar al punto de inflexión de la superación personal solo depende de qué tan rápido tengamos buenas ideas. Pronosticar avances tecnológicos de ese tipo es notoriamente difícil. No parece irrazonable que podamos construir una IA fuerte dentro de veinte años, pero tampoco parece irrazonable que pueda llevar ochenta años. De cualquier manera, sucederá eventualmente, y hay razones para creer que cuando suceda, será extremadamente peligroso..

Entonces, si aceptamos que esto va a ser un problema, ¿qué podemos hacer al respecto? La respuesta es asegurarse de que las primeras máquinas inteligentes sean seguras, de modo que puedan arrancar hasta un nivel significativo de inteligencia, y luego protegernos de las máquinas inseguras fabricadas más tarde. Esta 'seguridad' se define al compartir valores humanos y al estar dispuesto a proteger y ayudar a la humanidad.

Debido a que no podemos sentarnos y programar valores humanos en la máquina, probablemente sea necesario diseñar una función de utilidad que requiera que la máquina observe a los humanos, deduzca nuestros valores y luego intente maximizarlos. Para que este proceso de desarrollo sea seguro, también puede ser útil desarrollar inteligencias artificiales diseñadas específicamente no tener preferencias sobre sus funciones de utilidad, lo que nos permite corregirlas o apagarlas sin resistencia si comienzan a extraviarse durante el desarrollo.

Muchos de los problemas que tenemos que resolver para construir una inteligencia de máquina segura son matemáticamente difíciles, pero hay razones para creer que pueden resolverse. Varias organizaciones diferentes están trabajando en el tema, incluido el Future of Humanity Institute en Oxford y el Machine Intelligence Research Institute (que Peter Thiel financia).

MIRI está interesado específicamente en desarrollar las matemáticas necesarias para construir una IA Amistosa. Si resulta que la inteligencia artificial de arranque es posible, desarrollar primero este tipo de tecnología de 'IA Amistosa', si tiene éxito, puede terminar siendo la cosa más importante que los humanos han hecho.

¿Crees que la inteligencia artificial es peligrosa?? ¿Le preocupa lo que podría traer el futuro de la IA? Comparte tus pensamientos en la sección de comentarios a continuación!

Créditos de imagen: Lwp Kommunikáció Via Flickr, “Red neuronal“, por fdecomite,” img_7801“, por Steve Rainwater, “Evolucionar”, por Keoni Cabral, “new_20x“, por Robert Cudmore, “Clips de papel“, por Clifford Wallace




Nadie ha comentado sobre este artículo todavía.

Sobre tecnología moderna, simple y asequible.
Tu guía en el mundo de la tecnología moderna. Aprenda a usar las tecnologías y los dispositivos que nos rodean todos los días y aprenda a descubrir cosas interesantes en Internet.