Hay un 5% de posibilidades de que la IA provoque la extinción de los humanos, dicen los expertos
En la encuesta más grande realizada hasta ahora entre investigadores de IA, la mayoría dice que existe riesgo de extinción debido al posible desarrollo de una IA sobrehumana.
Una encuesta realizada a los principales científicos de IA dice que hay un 5% de posibilidades de que la IA se vuelva incontrolable y acabe con la humanidad. Según los investigadores, antes de 2030, la IA avanzará considerablemente, será capaz de crear éxitos musicales y literarios. Si este escenario apocalíptico se cumple, al menos moriremos entretenidos.
La investigación realizada por expertos de Berkeley y la Universidad de Oxford, en diciembre, subraya que si bien las predicciones de estos expertos no deben considerarse verdades absolutas, ofrecen una pieza fundamental para comprender el panorama. Estos investigadores, con un profundo conocimiento tecnológico y de la evolución histórica de la IA, están bien posicionados para hacer conjeturas fundamentadas sobre su futuro.
El estudio destaca el peligro percibido en torno a la creación de una poderosa inteligencia artificial por parte de los principales investigadores del mundo. Aproximadamente el 68% de los investigadores ven más factible un avance positivo sobrehumano en la IA, aunque la mitad de estos optimistas aún consideran una probabilidad distinta de cero de una posible extinción humana.También declara que existe consenso en priorizar la investigación para mitigar los riesgos de la IA.
"Es una señal importante de que a la mayoría de los investigadores de IA no les parece muy inverosímil que la IA avanzada destruya a la humanidad", dice Katja Grace del Machine Intelligence Research Institute en California, autora del artículo. "Creo que esta creencia general en un riesgo no minúsculo es mucho más reveladora que el porcentaje de riesgo exacto".
Otros peligros
El posible desarrollo de una IA que pueda superar a los humanos en todas las tareas tenía un 50% de probabilidades de ocurrir para 2047, mientras que la posibilidad de que todos los trabajos humanos se volvieran completamente automatizables tenía un 50% de probabilidades de ocurrir para 2116. Estas estimaciones son 13 años y 48 años antes que los dados en la encuesta del año pasado.
En los próximos diez años, la inteligencia artificial tiene al menos un 50 % de posibilidades de realizar la mayoría de las tareas encuestadas. Estas incluyen crear canciones tan exitosas como las de Taylor Swift o programar un sistema completo para procesar pagos desde cero. Sin embargo, tareas como la instalación física de cables eléctricos en una casa nueva o resolver antiguos enigmas matemáticos podría llevar más tiempo para que las realice una IA.
Más del 80% de los investigadores de IA expresan una preocupación "extrema" o "sustancial" respecto a la posibilidad de que la IA facilite la propagación de información errónea. Similarmente, existe inquietud acerca del potencial de la IA para ser utilizada por gobernantes autoritarios, agravar la desigualdad económica y su participación en la creación de virus diseñados.
¿Podremos entrenar a las IA para evitar el apocalipsis?
Aunque empresas líderes en IA, como OpenAI y Anthropic, han establecido directrices para alinear la IA con los valores humanos. Pero, ¿estos métodos realmente funcionarán con modelos de IA más inteligentes que los humanos? La eficacia de estas medidas con modelos de IA más avanzados que los humanos sigue siendo una incógnita, ya que la IA actual no es tan inteligente.
Aun así, esta tecnología tiene mucho para dar. Los expertos estiman que para el 2033, la IA será capaz de ensamblar LEGO, traducir idiomas recién descubiertos y desarrollar videojuegos. Para el 2063, se espera que la IA realice tareas quirúrgicas e incluso investigaciones propias de expertos en IA.
Referencia de la noticia
Katja Grace, Harlan Stewart, et.al. Thousands of AI authors on the future of AI