La inteligencia artificial borraría a la humanidad: Hawking

Diciembre 04, 2014

por: Allan Vélez

El científico británico reconoce que la inteligencia artificial representa un riesgo latente para la humanidad. "Asumiría el control de sí misma", alerta.

 

El reconocido científico británico Stephen Hawking alertó, dentro del marco de la presentación del nuevo sistema inteligente que le ayudará a comunicarse, sobre los riesgos que la inteligencia artificial representa para la humanidad, alegando que “el desarrollo de una completa inteligencia artificial podría significar el fin de la raza humana,” reportó la BBC.

 

Nota relacionada: Stephen Hawking se comunicará con variante de SwiftKey.

 

El también profesor de la Universidad de Cambridge acotó que si bien las formas de inteligencia artificial más primitivas han mostrado ser útiles para la humanidad –su nueva herramienta de comunicación parte del software de texto predictivo SwiftKey–, existe un riesgo latente en el desarrollo de inteligencia artificial más avanzada.

 

“Asumiría el control de sí misma, rediseñándose a un ritmo cada vez más acelerado,” indicó. “Los humanos están limitados por una lenta evolución biológica, de modo que no podríamos competir contra ella, y por tanto, pereceríamos.”

 

La alerta lanzada por el profesor Hawking no es la única en su tipo. Recientemente, el entusiasta tecnológico Elon Musk se pronunció en un sentido similar, por lo que urgió a deliberar sobre el tema a fin de crear una regulación global.

 

Internet, otra fuente de riesgo

 

Durante la misma entrevista con la BBC, Hawking, quien padece esclerosis lateral amiotrófica, indicó que la red podría convertirse en otra fuente de riesgo si no es asegurada en los próximos años. Concretamente, el científico británico señaló que la red podría ser utilizada como un centro de operaciones para terroristas.

 

“Las compañías de internet tienen que hacer más para asegurar el internet, pero aquí la dificultad es hacerlo sin sacrificar la libertad y la privacidad.”

Nos interesa tu opinión:

Comenta: