Tecnología
Novedades

La inteligencia artificial y el futuro de los drones

Usos y funciones de los drones.

Para muchos, los drones son simplemente un nuevo gadget, un juguete entretenido para volar por el vecindario, capturar imágenes aéreas o espiar a los vecinos. Con un rápido crecimiento en popularidad, los vehículos aéreos no tripulados (UAV por sus siglas en inglés) ya se pueden visualizar en una variedad de escenarios, mucho más allá de su uso como juguetes robóticos.

El futuro de los drones, se define día a día y se definirá positiva y ampliamente gracias a la inteligencia artificial.

En tan solo pocos años, los drones han mejorado y redefinido una variedad de industrias. Se utilizan para entregar bienes en cortos periodos de tiempo, así como para estudiar ampliamente el entorno y escanear bases militares remotas. Los drones se han empleado en monitoreo de seguridad, inspecciones de seguridad, vigilancia de fronteras y seguimiento de tormentas. Incluso han sido armados con misiles y bombas en ataques militares, protegiendo las vidas de personal de las fuerzas armadas que, de otra manera, serían requeridos para ingresar a estas peligrosas zonas de combate.

Empresas enteras están dedicadas actualmente a la fabricación de drones para uso comercial. El potencial de estos robots voladores controlados a distancia es ilimitado.

Todavía limitados por sus controladores humanos, la próxima generación de drones será impulsada por inteligencia artificial. La inteligencia artificial (IA) permite que las maquinas como los drones, tomen decisiones y se operen autónomamente sin controladores humanos. Pero cuando una máquina adquiere la capacidad de tomar decisiones y "aprender" a funcionar independientemente de los humanos, los beneficios potenciales deben sopesarse frente al posible daño que podría afectar a sociedades enteras.

Cuando se trata de IA, estamos entrando en un territorio desconocido, y la única guía es nuestra imaginación. Algunas de las mentes más brillantes del siglo pasado ya han pronosticado lo que podría suceder. ¿Podríamos estar frente a un mundo en el que un ejército de ciborgs del tipo “Terminator” sumergen al mundo en un holocausto nuclear?

Para muchos, la amenaza de los robots autónomos no es más que un relato ficticio de la mente del escritor de ciencia ficción estadounidense Isaac Asimov ya que, entre 1940 y 1950, Asimov publicó una serie de historias cortas que describen las futuras interacciones de humanos y robots.

Fue en esta colección que el autor nos presentó las “Tres Leyes de la Robótica”, el conjunto de reglas que dictaban cómo la inteligencia artificial podría coexistir armoniosamente con el hombre. Para aquellos que no están familiarizados, estas tres leyes establecen:

- Un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un humano sea dañado.

- Un robot debe obedecer las órdenes que le dan los humanos a menos que las órdenes entren en conflicto con la Primera Ley.

- Un robot debe proteger su propia existencia a menos que dicha protección entre en conflicto con la Primera o la Segunda Ley.

Como vemos, Asimov presentó a los lectores un concepto muy real y a la vez peligroso. Cuando una máquina puede funcionar independientemente de los humanos, si puede aprender y tomar decisiones basadas en su avance en el conocimiento, ¿qué le impide adelantar a una sociedad mortal?

A medida que la IA salta de las páginas de ciencia ficción a la realidad, nos enfrentamos a escenarios de la vida real en los que esas tres leyes podrían ser útiles. ¿Qué sucede cuando se despliegan armas militares robóticas con el potencial de matar a millones de personas en una sola redada? ¿Qué pasa si estos asesinos autónomos evolucionan hasta el punto de ignorar las órdenes de sus creadores?

Por lo tanto, las armas que se programan con inteligencia artificial, específicamente los drones, se están acercando mucho a la realidad descrita por Asimov donde robots convivirán con humanos. Aunque el Pentágono emitió una directiva en el año 2012 que pedía el establecimiento de "directrices diseñadas para minimizar la probabilidad y las consecuencias de fallas en los sistemas de armas autónomas y semiautónomas", los drones de combate no tripulados ya se han desarrollado e incluso desplegado a lo largo de la frontera de Corea del Sur. Los desarrollos han llevado a importantes figuras de la industria tecnológica, incluidos nombres conocidos como Elon Musk, a pedir la prohibición de los "robots asesinos".

"No tenemos mucho tiempo para actuar", escribieron Musk, Stephen Hawking y otros 114 especialistas. "Una vez que se abra la caja de Pandora, será difícil cerrarla".

Hasta ahora, solo tenemos la certeza de que la inteligencia artificial está ya al nivel de poder ayudarnos a resolver muchos desafíos y la misma, acelera definitivamente la resolución de problemas a gran escala, incluido el hallazgo de un nuevo descubrimiento científico.

Entonces, cabe preguntarnos, ¿son los drones propulsados ​​por la IA útiles o dañinos? Pues, todo depende. Los beneficios potenciales son demasiado numerosos como para contarlos si entramos sabiamente en el ámbito del aprendizaje automático, pero los riesgos también pueden llegar a ser muy complejos.

No es de extrañar que mentes brillantes como Musk y Hawking, hayan pedido a las Naciones Unidas, una prohibición de las armas autónomas. Ya es momento de trabajar en una legislación internacional que regule el uso de la inteligencia artificial, para así proteger a la humanidad de su propia creación.

Lectores: 1117

Envianos tu comentario