¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?

Comparte...Share on FacebookShare on Google+Tweet about this on TwitterShare on TumblrShare on VKShare on LinkedInEmail this to someone
¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?
Vota este post:

¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?
¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?

¿Cómo podría la artificial acabar con la humanidad?

Visto en: RT

darkgeometryart.deviantart.com

La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con ‘voluntad’ propia. De ser así, podrían acabar con la humanidad en un segundo.

Esta opinión sobre el peligro que acarrea la corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la , y autor del famoso libro ‘La superinteligencia: caminos, peligros, estrategias’.

En una entrevista a la revista ‘Esquire’ el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial.

Y no es único que piensa así. Últimamente se ha reavivado el tema de las consecuencias de la creación de la superinteligencia artificial y varios científicos, entre ellos Elon Musk y Stephen Hawking, se han pronunciado en contra de estos avances ya que en su opinión pueden representar una amenaza para la humanidad.

En la entrevista Nick Bostorm señala que en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, las máquinas ya superan al ser humano, pero “aún no disponen del razonamiento como tal” y la creación de la superinteligencia artificial es todavía una cuestión de tiempo.

Según mantiene el científico, la aparición de la superinteligencia artificial acarrea otro problema relacionado con su posible rechazo a seguir estando bajo el control de la humanidad.

Nick Bostorm asegura que, a diferencia de los típicos guiones de las películas de , en los que las máquinas con la superinteligencia artificial se ven derrotadas por seres humanos con habilidades especiales, en la vida real esto sería poco probable. Las máquinas podrían acabar con la humanidad en solo un segundo y “la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles“.

Dado que resulta imposible impedir que los estudios sobre la superinteligencia artificial continúen, Nick Bostorm cree que es necesario “centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada”.

Para conseguirlo, se debe “fundar una comunidad profesional que una a personas de negocios, científicos e investigadores”, una comunidad que “dirija también los estudios científicos en la dirección segura y elabore medios de control sobre sus resultados”, señaló el famoso científico.

1,568 total views, 1 views today

La verdad 2.0

Aqui estan las noticias de hoy que se publican todos los dias y a las que no quieren que se publiquen nunca.

1 comentario en “¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?

Tu opinión es importante, compartela. El autor del blog se reserva el derecho a no publicar o borrar aquel comentario que incumplan las normas basicas de respeto o sea sospechoso de spam. Asimismo, el autor del blog no se responsabiliza de los comentarios vertidos por los lectores en los comentarios. En caso de existir alguna queja con algún comentario publicado, hazmelo saber via mail,el comentario se revisará y se solucionará tu petición.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies
Translate »
A %d blogueros les gusta esto: