Google Desarrolla un Kill Switch para IA

google-kill-switch

El aumento de los robots podría ser una verdadera amenaza para la raza humana como tantas veces hemos visto en las películas de ciencia ficción de hollywood, y ya muchos expertos, desarrolladores y científicos de diversas áreas lo han advertido, pero Google está a la esperanza de encontrar una manera de detener la Inteligencia Artificial (IA) de asumir el control del mundo en un caso hipotético.

Los desarrolladores de la división de la inteligencia artificial del motor de búsqueda, DeepMind, se han unido con investigadores de la Universidad de Oxford para desarrollar un “interruptor de apagado” o “Kill Switch” para la IA en caso que esta se torne en contra sus creadores, Laurent Orseau de Google y Stuart Armstrong, del Instituto Futuro de la Humanidad, dicen que puede ser necesario en algún momento para los seres humanos para presionar un “botón rojo” para detener la IA de llevar a cabo una “secuencia de acciones perjudiciales” para la humanidad.

DeepMind, compañía de inteligencia artificial de Google, ha catapultado a la fama cuando su AlphaGo AI venció a la campeona del mundo de Go, Lee Sedol. Sin embargo, DeepMind está trabajando para hacer mucho más que vencer a los seres humanos en el ajedrez, Go y varios otros juegos. De hecho, sus algoritmos de IA fueron desarrollados para algo mucho mayor: Para “resolver la inteligencia” mediante la creación de un propósito general de AI que se puede utilizar para una variedad de aplicaciones y, en esencia, aprender por su cuenta y desarrollar aún más su propia inteligencia, evolucionar. Esto, por supuesto, plantea algunas preocupaciones. Es decir, ¿qué hacemos si el AI se transforma en un virus si se va al lado oscuro de la fuerza?, por así decir.

En un artículo escrito por investigadores de DeepMind, en cooperación con Instituto de la Universidad de Oxford, los científicos señalan que los sistemas de IA “no es probable que se comporten de forma óptima todo el tiempo”, y que un operador humano puede verse en la necesidad de “pulsar un gran botón rojo” y mandar todo al carajo, para evitar que un sistema de este tipo de cause daño a la humanidad por una mala decisión autónoma.


En otras palabras, necesitamos un kill switch

Co-fundador Mustafa Suleiman hace hincapié en que DeepMind es más que un juego de AI para vencer a los mejores del mundo demostrando sus capacidades. Como se ha insinuado anteriormente en este artículo, se trata de una inteligencia general artificial (AGI), lo que significa que aprende de la entrada bruta de información para resolver tareas sin ningún tipo de pre-programación o ayuda humana, mientras que las IA regulares aprenden de las tareas específicas para las que están creados. En última instancia, él describe sus sistemas como agentes. Usted sabe qué otra cosa se llama agentes en la ciencia ficción? La IA corrompida en Matrix … los malos.

Pero tal vez puede que se pregunte acerca de si una IA podría aprender su camino a través de un interruptor, si es que pudiera evolucionar más allá de nuestras características de seguridad incorporadas. El documento, titulado “Agentes interrumpibles con seguridad ” explora un método que evite que un agente, por así decirlo, extrapole su forma de trabajo alrededor del botón rojo grande.

En realidad, las IA y las IAG están creciendo cada año, y están cada vez más cerca de igualar las habilidades de nivel humano cuando se trata de ciertas tareas. Suleyman incluso habla que en relación con el reconocimiento de imágenes, DeepMind es capaz de procesar alrededor de un millón de imágenes con una tasa de error de aproximadamente del 16%. Eso fue en 2012. El año pasado, se bajó a un 5,5%.

Así como la IA sigue avanzando, tiene sentido tomar medidas de seguridad en caso de que los operadores humanos se vean en la necesidad de “tomar el control de un robot que se está portando mal, y que podría (hipotéticamente) conducir a consecuencias irreversibles.” pero por ahora todos los avances se mantienen en secreto, solo se revela un parte de las capacidades de la IA en sus diversos tipos, es solo cuestión de esperar el gran anuncio.

Lino Cisterna

CEO&Founder RevistaProware.com Aficionado a las Ciencias & Tecnologías, Física Teórica, (G)Astronomía, Sociología, Psicología, Teorías de Tecnologías (AAT).

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *