Globedia.com

×
×

Error de autenticación

Ha habido un problema a la hora de conectarse a la red social. Por favor intentalo de nuevo

Si el problema persiste, nos lo puedes decir AQUÍ

×
cross

Suscribete para recibir las noticias más relevantes

×
Recibir alertas

¿Quieres recibir una notificación por email cada vez que Diasporaweb escriba una noticia?

"La Inteligencia Artificial puede superar a la humana muy pronto"- Bill Gates, Stephen Hawking, Elon Musk..

04/05/2015 03:50 0 Comentarios Lectura: ( palabras)

Entre los intelectuales la discusión es fuerte. Bill Gates ha tenido problemas en Microsoft con Eric Horvitz que no ve la Inteligencia Artificial como una amenaza. Cuando un robot en contra de la leyes de Asimow se rebele, el mundo estará en poder de ellos

El fundador de Microsoft, Bill Gates, se ha unido a otras  personalidades del mundo intelectual para mostrar su temor por la inteligencia artificial, anunciando en conferencia de prensa que los seres humanos deben estar preocupados por la amenaza que representa ese tipo de innovación.

Durante la sesión de preguntas en Reddit, Bill Gates dijo que está de acuerdo con el empresario tecnológico Elon Musk -quien firmó junto con Stephen Hawking y otros pensadores destacados una carta abierta sobre el peligro que implican los robots- y que está preocupado sobre cómo se va a utilizar la inteligencia artificial en el futuro.

"Yo estoy en el bando de los que se inquietan ante las superinteligencias", escribió. "Primero, las máquinas pueden hacer un montón de trabajo para nosotros sin ser superinteligentes. Eso es positivo si lo gestionamos bien. Unas décadas después, la inteligencia artificial será lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto, y no comprendo por qué a algunas personas no les preocupa".

En esta declaración, Gates contradice a uno de los jefes de Microsoft Research, Eric Horvitz, quien había dicho que "fundamentalmente" no ve la inteligencia artificial como una amenaza. Según él, cerca de la cuarta parte de los recursos de su equipo se centra en la inteligencia artificial.

Nuevo test de inteligencia artificial enseñará a robots a hacer obras de arte

Un nuevo test revolucionario de inteligencia artificial al que serán sometidas las máquinas electrónicas enseñara a los robots concebir una obra creativa a partir de criterios artísticos.

Un grupo de investigadores del Instituto Tecnológico de Georgia, EE.UU., ha propuesto un nuevo método innovador  para realizar test de inteligencia artificial a máquinas electrónicas, el llamado 'Lovelace 2.0', informa 'Tech Times'. La prueba requiere que el robot sea capaz de realizar una obra creativa a partir de criterios artísticos establecidos de antemano. O enseñárselo.

Tras establecer los criterios un científico-juez determinará si la tarea creada por la máquina cumple con dichos parámetros o no sin tener en cuenta el valor artístico de la obra pero exigiendo que los elementos preestablecidos estén presentes en el trabajo final. La obra puede ser pintura, escultura u otra expresión artística y creativa.

Lovelace 2.0 reemplazará al test de Turing, creado en 1950 por Alan Turing para determinar si una máquina es inteligente o no a través de una serie de preguntas cuyas respuestas  evaluadas por un juez que no sabe de antemano si quien le está le está contestando es un humano o un robot.

Los ingenieros de Boston Dynamics han publicado en YouTube un video de Atlas, su robot humanoide más avanzado, moviéndose como un experimentado karateka

Un nuevo video de este robot humanoide dado a conocer esta semana por los ingenieros de Boston Dynamics muestra que Atlas puede simular los movimientos del actor Ralph Macchio, que encarnaba a Daniel LaRusso en la película 'Karate Kid'. El video rápidamente ha hecho que muchos se pregunten qué habilidades tendrán los androides automatizados de próxima generación creados para la agencia del Pentágono DARPA, si se enfrenta a un humano. En el fondo este nuevo video, si no está trucado responderá a la interrogante de Bill Gates del peligro que la inteligencia artificial en relación con los humanos. Eso si Microsoft consiente que la prueba se haga.

Con una altura de 1, 88 centímetros, 150 kilogramos de peso y aspecto de 'Terminator', Atlas es el robot más desarrollado e imponente que se haya concebido hasta ahora porque hay varios otros en camino. Conforman la de Atlas una estructura de 28 articulaciones accionadas hidráulicamente, un potente ordenador que le permite efectuar movimientos inquietantemente similares a los humanos y un equipo de música integrado.

Atlas está tan avanzado tecnológicamente que no tiene ningún problema para caminar sobre terreno irregular y se espera que sus manos robóticas sean las más diestras y flexibles jamás diseñadas. Aunque en los vídeos aparece conectado a una fuente de alimentación, según los expertos, con el tiempo Atlas será capaz de funcionar y moverse libremente sin estas ataduras.

Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficción para entrar de lleno en la agenda internacional sobre desarme: La ONU reúne en Ginebra a decenas de expertos durante cinco días para estudiar todas las implicaciones de los llamados Sistemas de Armas Autónomos Letales (LAWS). El objetivo de los investigadores es convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantean profundos dilemas éticos, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable si una máquina autónoma comete un crimen? Que se sepa, todavía no existen; pero ahí está la tecnología capaz de desarrollarlas.

“Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares bajo el lema Stop Killer Robots. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisión”

El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y se han conseguido acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonas y los láser cegadores. Este armamento existía de hecho, pero se prohibió justo antes de que estuviese operativo y eso es lo que pretenden los científicos: que los robots asesinos no lleguen a crearse nunca ni como una posibilidad. Muchos países han desarrollado sistemas de armas autónomos, como el x47-B de EE UU, un avión que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta –por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte–, pero la decisión de abrir fuego sigue siendo humana. Por ahora.

Los organizadores de la defensa de los derechos humanos están en contra de los drones del Pentágono que son ya casi robots asesinos

Con motivo del encuentro de Ginebra, Human Rights Wacht y Harvard Law School’s International Human Rights Clinic han publicado estos días un informe que relata lo que implicaría el que las máquinas con capacidad para decidir sobre la vida y la muerte entraran en el campo de batalla. Su conclusión es clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.

Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator: “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.

Debido a que estas armas revolucionarían la guerra, también pueden desatar una carrera armamentista. Una vez que estuviesen totalmente desarrolladas, se producirá una proliferación a estados irresponsables o grupos armados no estatales. Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurrirán a la fuerza porque reduciría el riesgo para sus propios soldados”. A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad si ocurre un accidente con un coche que conduce una máquina.

El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, ha desarrollado un argumentario para la reunión de Ginebra con los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía estamos a tiempo para detener la automatización de la decisión de matar, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto.

Faltan 35 años para que los aviones no tripulados desarrollados actualmente por EE. UU. funcionen sin control humano alguno y se conviertan en verdaderos 'robots asesinos'. Medio Oriente será el primero que sufrirá  las consecuencias. Probablemente no será una sorpresa si aparecen cualquier día de estos según una indiscreción de los técnicos especializados en aviones no tripulados que se desarrollan actualmente en EE.UU. La intención es que funcionen sin control humano alguno y se conviertan en verdaderos 'robots asesinos'. Medio Oriente empieza a temblar porque ya las noticias al respecto de Pakistán y Yemen son aterradoras. La guerra contra el terror se ha convertido en la guerra del terror y no es sólo virtual.

La principal arma de la CIA y las Fuerzas Armadas de EE. UU. para combatir a los grupos extremistas de la conflictiva región son los drones no tripulados. Hace una década, el número de estos aparatos no rebasaba unas cuantas unidades, pero ahora existen más de 7.500 y su producción se acelera cada día más. El 26 de enero pasado, el Pentágono anunció que comprará 100.000 unidades más. La razón es que son más baratos tanto en su construcción como en su operación, que los aviones tripulados.

Pero para los militares del Pentágono el potencial de estos aparatos no ha sido todavía debidamente aprovechado. El plan antiterrorista de EE. UU. tiene como objetivo conseguir que para el año 2047 los drones no tripulados puedan operar sin ninguna supervisión humana, ni siquiera desde centros de control remotos como se hace ahora. Estos artefactos podrían funcionar  independientemente gracias a un nuevo software y a sofisticadas computadoras. Bill Gates y Hawking tienen toda la razón: la inteligencia artificial ha vencido o casi.

“Los avances en inteligencia artificial harán posible que estos sistemas tomen decisiones de combate y actúen sin necesitar la intervención humana”, sostiene el documento titulado ‘Unmanned Aircraft Systems Flight Plan 2009-2047’. Según este texto, actuarán conforme a lo programado, mientras que los humanos puedán vetar sus decisiones y reprogramarlos, eso si logran hacerlo suficientemente rápido.

"El mayor atractivo de los sistemas no tripulados es no mandar a nuestros hijos e hijas al peligro”, comenta por su parte Peter W. Singer, experto en Medio Oriente de la Institución Brookings (EE. UU.) en un artículo publicado en The New York Times. No hay para ese señor problemas éticos o morales. Un psiquiatra diría que ese señor tiene problemas en casa. O que su padre, siendo niño, le pegaba. Debía buscarse un Dr Freud cuanto antes, alguien sin cinco estrellas en la manga.

Pero encimas el Dr Singer se atreve a advertir: “Cuando los políticos puedan evitar las consecuencias de una carta de condolencias y el impacto que las bajas militares en sus filas sobre sus electores y medios de comunicación importantes, ya no considerarán las cuestiones de guerra y paz, ni las bajas, ni nada, que anteriormente pesaban“.

A Noel Sharkey, informático británico y experto en robots, le interesa otro aspecto del problema. “Las acciones letales deben tener una cadena clara de responsabilidades. Con las armas robóticas es muy difícil. Un robot no puede ser considerado responsable. Entonces, ¿quién será? ¿El comandante que lo usó? ¿El político que lo autorizó? ¿El proceso de adquisición militar? ¿El fabricante?”, acentúa.

Hoy en día, los drones manejados desde centros de control remotos son una parte esencial de las operaciones de EE. UU. en Asia. Ejercen vigilancia en los territorios de Afganistán, Yemen, Pakistán e incluso Irán. Se informa que tuvieron un papel clave en el operativo que acabó con el terrorista número uno del mundo, Osama Bin Laden, igual que en otras operaciones contra los miembros de Al Qaeda.

Sin embargo, según la organización de defensa de los derechos humanos Human Rights Watch, las víctimas de sus ataques son principalmente los civiles. Solo en Pakistán, durante los últimos ocho años los ‘fallos’ por parte de aviones estadounidenses no tripulados dejaron un saldo de entre 2.292 y 2.864 víctimas mortales entre la población civil, entre ellas había al menos 168 niños, según calcula la Oficina de Periodismo de Investigación (Londres).

 

 

 

 


Sobre esta noticia

Autor:
Diasporaweb (1604 noticias)
Visitas:
9438
Tipo:
Reportaje
Licencia:
Creative Commons License
¿Problemas con esta noticia?
×
Denunciar esta noticia por

Denunciar

Comentarios

Aún no hay comentarios en esta noticia.