Inteligencia Artificial Hasta Donde Llega El Hombre ¿Jugamos con Fuego?

Inteligencia artificial

Inteligencia Artificial : Definición, ejemplos, aplicaciones, ventajas y desventajas, robótica, características, riesgos, industria, telefonía, multimedios, etc.

Inteligencia artificial

Inteligencia artificial

Inteligencia artificial:

La Inteligencia Artificial : Definición, ejemplos, aplicaciones, ventajas y desventajas, robótica, características, riesgos, industria, telefonía, multimedios, etc.

El genio de la inteligencia artificial, que ha construido su BabyX virtual a partir de una cabeza llorosa y risueña, ve una relación simbiótica entre humanos y máquinas. Mark Sagar hizo un bebé en su laboratorio. Ahora toca el piano.

Por Ashlee Vance.

La gente hace cosas extrañas en Nueva Zelanda. En la Universidad de Auckland, si quieres correr horas y horas de experimentos con un bebé atrapado en una trona, es genial. Incluso puedes tener una conversación con su cabeza desencarnada y sorprendentemente habladora.(Inteligencia Artificial).

BabyX, la creación virtual de Mark Sagar y sus investigadores, parece increíblemente real . El niño, una representación digital en 3D basada en imágenes de la hija de Sagar a los 18 meses, tiene mejillas sonrosadas, ojos cálidos, una cabeza llena de cabello rubio y una voz suave y dulce. Cuando visité el laboratorio de informática el año pasado, BabyX estaba atrapado dentro de una computadora pero aún podía verme sentado frente a la pantalla con su “padre”. Para llamar su atención, gritábamos: “Hola, cariño”. Mírame, bebé, “y agita nuestras manos. Cuando su mirada se fija en nuestras caras, sostenemos un libro lleno de palabras (como “manzana” o “pelota”) y fotos (ovejas, relojes), luego le pedimos a BabyX que lea las palabras e identifique los objetos. Cuando obtuvo una respuesta correcta, la elogiamos, y ella sonrió con confianza. Cuando se equivocaba, reprendiéndola la pondría triste y hosca.

Si suena extraño encontrar a un niño virtual que pueda leer las palabras de un libro, es mucho más desorientador sentir una sensación de orgullo paternal después de que ella enloquezca a un grupo en fila y se encienda con lo que parece ser auténtica alegría. BabyX y yo parecíamos estar teniendo un momento, aprendiendo el uno del otro mientras intercambiamos expresiones y señales sutiles tan familiares para la experiencia humana. Esa es la sensación que busca Sagar con su investigación y su nueva compañía Soul Machines Ltd.

Sagar es una figura destacada en el campo que trata de humanizar la IA (Inteligencia Artificial)., que según él tiene el potencial de generar una relación más simbiótica entre humanos y máquinas. Si bien no fue el primero en esta idea, su enfoque es único, una síntesis de sus primeros años como científico de la computación y más tarde en el mundo de los efectos especiales de Hollywood. La cara, concluyó, es la clave para atravesar el misterioso valle y hacer que los seres virtuales se sientan realmente realistas. Las creaciones de Soul Machines no tienen parangón a este respecto, pueden hacer muecas de dolor y sonreír con la musculatura y las características que se mueven sorprendentemente como la nuestra. También tienen voces humanas, y ya están contratados para ser utilizados como ayudantes en línea para compañías que van desde proveedores de seguros hasta aerolíneas. Soul Machines quiere producir la primera ola de robots agradables agradables.

Las empresas con aspiraciones similares en todo Japón y los Estados Unidos han producido una amplia gama de avatares virtuales, asistentes y hologramas. Muchas de las personas detrás de estos proyectos dicen que los sistemas de IA y los robots solo pueden alcanzar su máximo potencial si se vuelven más humanos. Necesitan tener recuerdos, piensa, además de algo parecido a las emociones, para impulsarlas a buscar sus propias experiencias.

El enfoque de Sagar en este frente puede ser su contribución más radical al campo. Detrás de las exquisitas caras que construye hay modelos biológicos y simulaciones sin precedentes. Cuando BabyX sonríe, es porque su cerebro simulado ha respondido a los estímulos al liberar un cóctel de dopamina virtual, endorfinas y serotonina en su sistema. Esto es parte de la búsqueda más grande de Sagar, el uso de la IA para realizar ingeniería inversa de cómo trabajan los humanos. Él quiere llegar a las raíces de la emoción, el deseo y el pensamiento e impartir las lecciones a las computadoras y los robots, haciéndolos más como nosotros.

“Desde mis 20 años, he tenido estos pensamientos de que una computadora puede volverse inteligente, puede tener conciencia, ardiendo en mi mente”, dice. “Queremos construir un sistema que no solo aprenda por sí mismo sino que esté motivado para aprender y motivado para interactuar con el mundo. Y entonces comencé con este loco objetivo de tratar de construir un modelo computacional de la conciencia humana “.

Esto es lo que realmente debería asustarte: está llegando mucho más rápido de lo que nadie hubiera pensado. Desde el año pasado, BabyX ha desarrollado, entre otras cosas, un cuerpo y aprendido a tocar el piano. Ellos crecen muy rápido.(Inteligencia Artificial).

A diferencia de la mayoría de los que trabajan en Silicon Valley, Sagar no se retrasa reflexivamente a la ingeniería. “Cuando los científicos ven el mundo y los artistas ven el mundo, miran lo mismo”, dice, “utilizando un lenguaje y un punto de vista diferentes para describirlo”. Pero todo es verdad Todo está interconectado “.

Él tuvo esa idea temprano. Cuando nació en Nairobi en 1966, su padre trabajaba para East African Railways and Harbors Corp. como analista de sistemas, programando computadoras de tarjetas perforadas para administrar la infraestructura del tren. Su madre, una pintora, lo llevó a las reservas de caza todos los jueves para practicar el dibujo de animales. Unos años más tarde, la familia se mudó a Nueva Zelanda, donde Sagar comenzó a ayudar a su padre a hacer bricolaje en la casa, arreglando la televisión, haciendo monos con la tubería y sintonizando los autos. Siguió perfeccionando sus habilidades de dibujo, también, prestando especial atención al trabajo de retrato de su madre. “Ella fue capaz de casi capturar la semejanza de alguien con aproximadamente tres líneas, obteniendo las curvas de alguien exactamente”, dice. “Me hizo realmente consciente de la importancia de las curvas exactas de los ojos y la boca de las personas y cosas así”.(Inteligencia Artificial).

Sagar hizo uso de esas observaciones cuando era un joven en el extranjero, cuando dibujaba retratos  en la calle y en restaurantes. Al igual que muchos jóvenes de su parte del mundo, tomó un descanso prolongado entre la escuela secundaria y la universidad. Durante cuatro años recorrió el mundo, dibujando, sirviendo cócteles, vendiendo de puerta en puerta, incluso llenando sacos de arena para que el ejército australiano pagase a su manera. Después de regresar a Nueva Zelanda, obtuvo un Ph.D. en ingeniería de la Universidad de Auckland, luego realizó un trabajo postdoctoral en el MIT. En Massachusetts, él y algunos colegas construyeron modelos digitales del ojo humano que eran lo suficientemente detallados y realistas como para que los cirujanos los usen para la práctica. Para 1998, Hollywood había pedido a Sagar que intentara hacer que las imágenes generadas por computadora, o CGI, parecieran menos CG.

Su primer proyecto fue una nueva versión de The Incredible Mr. Limpet , que pedía que el equipo de Sagar convirtiera a Jim Carrey en un pez parlante capaz de cazar submarinos nazis. Warner Bros. Entertainment Inc. abandonó el proyecto después de pagar $ 10 millones en expresiones digitales de Carrey Fish, considerándolo demasiado costoso para una película de larga duración. Sagar, sin embargo, no estaba listo para dejar de trabajar en caras digitales. Durante un par de años usó las criaturas como la base de una nueva asistente virtual llamada Life F / X e hizo que sus rostros leyeran correos electrónicos en voz alta. La compañía murió con la burbuja de las puntocom, por lo que Sagar se hizo cargo de los efectos especiales para Sony Pictures Imageworks Inc. ( Spider-Man 2).) Eso lo hizo famoso en el negocio del cine y lo llevó de regreso a Nueva Zelanda en 2004.

En Weta Digital , el taller de efectos dirigido por el director de Lord of the Rings y compañero Kiwi Peter Jackson, Sagar ganó dos premios de la Academia en siete años, supervisando la creación de personajes digitales para la nueva versión de King Kong de Jackson y Avatar de James Cameron. Su síntesis de ingeniería y arte le había proporcionado una ventaja al hacer que Kong y el alienígena Na’vi parecieran reales. Años de dibujo de retratos y elaboración de globos oculares virtuales le habían dado una idea de los matices de la cara que son poco comunes entre los especialistas en CGI, mientras que su software de efectos ha hecho que sea relativamente fácil filmar a un actor que atraviesa una gama de emociones y fusionar automáticamente las expresiones en un gorila gigante. “Son estos movimientos casi imperceptibles en el ojo y la cara los que percibimos como algo que tiene un alma detrás”, dice.

Sintiendo que había resuelto los enigmas de la cara, Sagar soñó más grande. Había estado atento a los avances en la tecnología de IA (Inteligencia Artificial). y vio la oportunidad de casarse con su arte. En 2011 dejó el negocio del cine y regresó a la academia para ver si podía ir más allá de replicar emociones y expresiones. Quería llegar al corazón de lo que los causó. Quería comenzar a modelar humanos desde adentro hacia afuera.

En la Universidad de Auckland, Sagar creó el Laboratorio de Tecnologías Animadas y reclutó a una docena de investigadores. Con la estrella de Bob Marley al frente, el equipo de Animate trabajó en una habitación estrecha mantenida permanentemente caliente y pegajosa por el calor de sus poderosas computadoras. Cuando vi el espacio el año pasado, los ingenieros estaban rodeados de caras animadas gigantes proyectadas en las paredes, cada cabello con poros y cejas claramente renderizado. Lejos de carecer de vida, las caras parecían ansiosas de entablar conversaciones, sus músculos se contraían y relajaban con cada respiración.

En la esquina posterior del laboratorio, Sagar se sentó en medio de un montón de notas y libros como La arqueología de la mente y Principios del modelado computacional en la neurociencia . Fue allí, en su par de enormes monitores de computadora, que puso a BabyX a través de sus ritmos virtuales. El bebé representó la culminación de gran parte de los esfuerzos del laboratorio, combinando el arte facial de Sagar con lo último en software de aprendizaje y habla de IA. Debajo de esa cara de querubín, también había algo de tecnología pionera y que colindaba con lo espeluznante.

Con un clic del mouse, Sagar se quitó la piel de BabyX, dejando un par de ojos flotantes todo conectado a un cerebro finamente detallado con un tronco cerebral corriendo por la espalda. Esta versión de BabyX aún podría verse en el mundo e interactuar con nosotros. Cuando mostramos sus palabras, la parte del cerebro que trata con el lenguaje brillaba de color púrpura. Cuando la elogiamos, el centro de placer se iluminó en amarillo. “Los investigadores han construido muchos modelos computacionales de cognición y partes de esto, pero nadie los ha unido”, dijo. “Esto es lo que estamos tratando de hacer: conectarlos y ponerlos en un cuerpo animado. Estamos tratando de crear un sistema nervioso central para la informática humana “.(Inteligencia Artificial).

“Queremos saber qué nos motiva, qué impulsa el aprendizaje social, cuál es la naturaleza del libre albedrío”.

Sagar volvió a hacer clic, y el tejido del cerebro y los ojos desaparecieron para revelar una intrincada imagen de las neuronas y las sinapsis dentro del cerebro de BabyX: una autopista supercompleta de finas líneas y nódulos que brillaban con diversos grados de intensidad cuando BabyX hizo lo suyo. Esta capa de ingeniería debe su existencia a los años que el equipo de Sagar pasó estudiando y sintetizando las últimas investigaciones sobre cómo funciona el cerebro. Los ganglios basales se conectan a la amígdala, que se conecta con el tálamo, y así sucesivamente, con sus respectivas funciones (procesamiento táctil, procesamiento de recompensa, formación de memoria) de la misma forma. En otras palabras, el equipo de Auckland ha construido lo que podría ser el mapa más detallado del cerebro humano en existencia y lo ha utilizado para ejecutar un notable conjunto de simulaciones.

BabyX no es solo una imagen íntima; ella es más como una placa de circuito en vivo. Se pueden inyectar éxitos virtuales de serotonina, oxitocina y otros químicos en la simulación, activando neurorreceptores virtuales. Puedes verlo en tiempo real cuando el cerebro virtual de BabyX libera dopamina virtual, iluminando ciertas regiones y produciendo una sonrisa en su capa facial. Todas las partes funcionan juntas a través de un sistema operativo llamado Brain Language, que Sagar y su equipo inventaron. Desde que hablamos por primera vez el año pasado, sus objetivos no se han vuelto más modestos. “Queremos saber qué es lo que nos mueve, qué impulsa el aprendizaje social, cuál es la naturaleza del libre albedrío, qué es lo que da lugar a la curiosidad y cómo se manifiesta en el mundo”, dice.(Inteligencia Artificial).

No mucho después de mi primera cita con BabyX, Sagar empacó su laboratorio e investigadores y los trasladó al piso superior del icónico Ferry Building de Auckland, donde comenzó Soul Machines para comercializar los avances de su equipo. Según sus estándares, las aplicaciones comerciales a corto plazo son bastante sencillas. Alrededor de 45 miembros del personal, incluidos artistas, expertos en inteligencia artificial, expertos en idiomas y codificadores, están creando un elenco de asistentes virtuales. En su mayor parte, estas son versiones refinadas del trabajo de Hollywood de Sagar, solo que son lo suficientemente inteligentes como para entender el lenguaje hablado y responder a las consultas, con menos del factor de fluencia característico de las personas virtuales.

La primera cara que Soul Machines reveló al mundo, en febrero, es Nadia, una mujer bastante blanca con cabello castaño recogido, ojos verdosos, pintalabios rosa y la voz de Cate Blanchett. El equipo de Sagar la desarrolló para la Agencia Nacional de Seguros de Discapacidad de Australia, que planea emplearla como una ayuda en línea para las 500,000 personas con discapacidades del país. La esperanza es que aquellos que interactúan con Nadia en el sitio web de la agencia la encuentren más agradable y utilizable que los chatbots basados ​​en texto en su línea telefónica automatizada.

La interactividad es en ambos sentidos, según Sagar. Nadia hace un sutil asentimiento con la cabeza para indicar comprensión y parece intrigada cuando está confundida, pero también interpreta las expresiones de los espectadores a través de las cámaras en sus PC o dispositivos móviles. “Si te ves confundido, puede ver eso y guiarte proactivamente”, dice Sagar. “También puedes gritar a estas cosas, pero responderán de la manera más amable. Las personas son buenas para tratar con clientes iracundos y ajustar su lenguaje corporal para la situación. Podemos hacer lo mismo “.(Inteligencia Artificial).

Sagar tuvo algo de ayuda con Nadia, utilizando la tecnología Watson de International Business Machines Corp. como base para su reconocimiento de voz. Su compañía reclutó a Blanchett para pasar 15 horas grabando frases que el software puede convertir en una variedad mucho más amplia de respuestas a las preguntas. Nadia ya ha sido probada con 10,000 personas, que le enseñaron a refinar sus respuestas y las emociones que muestra en ciertos momentos. El gobierno australiano espera que comience a trabajar a tiempo completo a principios del próximo año.

Soul Machines tiene en marcha 10 ensayos con aerolíneas, proveedores de servicios de salud y firmas de servicios financieros. Al principio, la prueba más importante de la compañía será si los usuarios encuentran su software lo suficientemente realista como para ser tan satisfactorio como la conversación humana. Incluso las experiencias exitosas de relaciones con clientes con chatbots, aquellas en las que el robot da la respuesta correcta, tienden a dejar a las personas insatisfechas porque sienten que han sido empeñadas en un ser inferior.

Por ahora, el equipo de Sagar ha estado desarrollando cada uno de sus primeros asistentes virtuales de manera única, un poco como una empresa de consultoría. “La mayoría de nuestros clientes hoy ven a su primer empleado digital como una extensión de su marca”, dice el Director de Negocios Greg Cross. “Están atravesando un proceso de diseño que es similar a seleccionar un vocero para su campaña publicitaria televisiva”.

Para hacer que su proceso sea más fácil de repetir, Soul Machines está escribiendo un software de creación de personajes que reduce el desarrollo a una serie de menús simples. Al deslizar algunos diales, Sagar puede transformar un avatar joven y delgado en uno más viejo y gordo, y alterar el cutis y otras características. Cada resultado creado por menú se ve tan real como un personaje que un desarrollador de producción de video o videojuego podría gastar millones de dólares y muchos meses para crear. La compañía ha pagado a los actores para grabar cientos de horas de monólogo, ensamblando una biblioteca de audio que puede usar para dar voz a personajes como un troll para un cliente en Escandinavia o una fresa antropomórfica animada que se usará en un sitio educativo para niños.(Inteligencia Artificial).

A medida que la tecnología madura, Cross espera que viaje más lejos de la pantalla de la PC. Los fabricantes de automóviles ya están pensando en los personajes que responden las preguntas y las respuestas de los pasajeros en las pantallas de sus automóviles sin conductor. Del mismo modo, Amazon, Apple, y el padre de familia de Google, Alphabet, probablemente querrán caras para ir con sus asistentes virtuales activados por voz. “También estamos explorando la idea de crear una celebridad digital”, dice Cross. “¿Qué pasaría si pudieras llevar a uno de los mejores artistas de grabación o deportistas y crear una versión digital con la que los fanáticos puedan interactuar de una manera emocionalmente inteligente?”

Al igual que Cross, Sagar a menudo parece ignorar que su tono puede sonar espeluznante. En agosto, cuando realizo una visita a Soul Machines para ver las últimas creaciones de Sagar, lleva una camiseta que representa dos fetos que comparten un útero, dispuestos de la cabeza a los pies en una especie de pose de yin-yang. Uno de los fetos es humano; el otro tiene un cerebro claramente artificial lleno de circuitos. Quería hacer de este diseño el logotipo de la empresa. Los inversores que le dieron $ 7.5 millones en noviembre pasado dijeron que no.

Sagar sale como un académico visionario, a veces casi poseído. Haga una pregunta básica, y es probable que obtenga una respuesta apasionada de 30 minutos que entreteje en AI, arte, psicología y Platón. Es difícil imaginar a este hombre en la corte con una aseguradora de automóviles, tratando de venderle a un avatar virtual a un ejecutivo con traje, sin que las cosas se vuelvan raras. Pero Sagar dice que le encanta la parte comercial del negocio, porque le ayuda a comprender mejor lo que le gusta y lo que no le gusta de sus avatares y se centra en los detalles más finos de las interacciones interpersonales.

BabyX

La versión 5.0 de BabyX ha ido más allá de la cabeza flotante original. BabyX ahora tiene un cuerpo completo que se sienta en una silla alta, las piernas balanceándose hacia adelante y hacia atrás mientras sus manos buscan algo que hacer. Para la próxima parte, querrás sentarte y agarrar un chupete también.(Inteligencia Artificial).

El software de Sagar le permite colocar un panel virtual de vidrio frente a BabyX. En este vaso, puede proyectar cualquier cosa, incluido un navegador de Internet. Esto significa que Sagar puede presentar un teclado de piano desde un sitio como Virtual Piano o un panel de dibujo de Sketch.IO en frente de BabyX para ver qué sucede. Resulta que ella hace lo que haría cualquier otro niño: trata de golpear el teclado con las manos o arañar un dibujo en mal estado.

¿Qué obliga a BabyX a golpear las teclas? Bueno, cuando una de sus manos empuja contra una tecla de piano, produce un sonido que el software convierte en una forma de onda y alimenta su simulación biológica. El software luego activa una señal dentro del sistema auditivo de BabyX, imitando los vellos que vibrarían en la cóclea de un bebé real. Por separado, el sistema activa receptores táctiles virtuales en sus dedos y libera una dosis de dopamina digital en su cerebro simulado. “La primera vez que esto sucede, es una gran novedad porque el bebé no ha tenido esta reacción antes cuando tocó algo”, dice Sagar. “Estamos simulando la sensación de descubrimiento. Eso cambia la plasticidad de las neuronas motoras sensoriales, lo que permite que el aprendizaje suceda en ese momento “.

¿El bebé se aburre del piano como su bebé que no es de Mozart? Sí, de hecho. Mientras golpea las teclas, la cantidad de dopamina que se simula dentro de los receptores cerebrales disminuye, y BabyX comienza a ignorar el teclado.

Sagar se ha asociado con Annette Henderson, una psicóloga que dirige un laboratorio de investigación para bebés en Auckland, para avanzar en la tecnología. Henderson ha filmado cientos de horas de interacciones entre bebés y cuidadores mientras realiza diferentes experimentos, como enseñarle una nueva palabra al bebé o ignorarlo por unos minutos. Los datos de respuesta de los niños (risas, gritos, movimientos de las manos, cambios de postura) se están digitalizando para crear un modelo de comportamiento mejor informado. “Conocemos los movimientos exactos, las microexpresiones y las respuestas”, dice Sagar. “Cuando construyamos nuestros próximos modelos para BabyX, deberíamos ser capaces de generar este mismo comportamiento”.(Inteligencia Artificial).

En aproximadamente 18 meses, Henderson planea usar una versión mejorada de BabyX para ejecutar experimentos con cuidadores y otros niños. Ella ve al bebé virtual como una forma de probar nuevas teorías de maneras previamente inimaginables, alterando miles de variables a voluntad, qué pasa si un bebé no sonríe, qué pasa si no mantiene la mirada fija, y así sucesivamente. El estudio de la respuesta de un niño virtual a los estímulos, dice, puede ayudar a los investigadores a comprender cómo relacionarse mejor con los niños de carne y hueso que no son particularmente sociales.

A cambio, Sagar logra avanzar en su búsqueda por comprender la naturaleza humana. “Podemos registrar a la madre interactuando con un bebé virtual y seguir agregando características a BabyX hasta que sea tan realista que tengamos una interacción natural”, dice. “En ese momento, hemos logrado nuestro objetivo”.

¿Y entonces que?

Muchos de los principales investigadores del cerebro del mundo han quedado impresionados por los tipos de simulaciones que Sagar y otros optimistas de inteligencia artificial están construyendo. “Paso cada vez más tiempo con estos tipos”, dice Gary Lynch, profesor de neurobiología en la Universidad de California en Irvine. “Esto es todo real”. Ya no es una empresa académica. “El problema con el trabajo como el de Sagar, como lo ve Lynch, es que el resultado final -un bebé virtual verdaderamente consciente- es tan complejo y único que no es un espejo útil del comportamiento humano. “Hará algo que nadie jamás haya soñado”, dice. “Saldrá por la puerta y dirá: ‘Adiós. Tengo cosas que quiero hacer. ”

Otros investigadores advierten que Sagar podría estar engañando a la gente sobre el estado de la tecnología a través de sus lindos e intrincados rostros. “Los occidentales tienden a querer antropomorfizar estas cosas, y podemos quedar muy encantados con ellas”, dice Ken Goldberg, profesor de ingeniería industrial e investigación de operaciones en la Universidad de California en Berkeley. “Si lo haces lucir humano y actuar como humano, casi tienes una doble responsabilidad de ser claro acerca de sus limitaciones”. Aplaude a Sagar por hacer este tipo de investigación pero no quiere que la gente tenga falsas esperanzas sobre los beneficios a corto plazo de tal tecnología. Sagar tiene la tendencia de hablar como si BabyX ya pudiera hacer todas las cosas que está soñando.

Si bien parece razonable suponer que el juego final de Sagar es un mundo que vincula inextricablemente a los humanos con las máquinas, a menudo pasa los fines de semana en el desierto para alejarse de las computadoras, y no permite que sus hijos usen Internet de noche. Este no es exactamente el tipo de comportamiento que uno podría esperar de alguien empujando a la IA  (Inteligencia Artificial).lo más rápido posible hacia lo desconocido y esperando lo mejor. Durante una de nuestras conversaciones, señalo que los cuentos como Frankenstein no suelen terminar bien para los humanos. “No estamos desenterrando cadáveres”, dice, esquivando cuidadosamente la verdadera moraleja de la historia de jugar a Dios.

No tiene que ser paranoico para creer que el aumento de la inteligencia artificial puede ser muy malo para los humanos.

Las computadoras podrían comenzar a tomar decisiones por sí mismas, y esas decisiones podrían incluir cosas perjudiciales para la humanidad. Un minuto, BabyX está comiendo una taza de pudín virtual de un sitio web; al siguiente, ha vendido su casa para su entretenimiento personal o ha decidido que ella debería estar a cargo. (Esto no es una actitud Frankenstein?).

Inteligencia Artificial : Definición, ejemplos, aplicaciones, ventajas y desventajas, robótica, características, riesgos, industria, telefonía, multimedios, etc.

Sagar se mantiene optimista sobre las lecciones que AI (Inteligencia Artificial). puede aprender de nosotros y viceversa. “Estamos buscando la base de cosas como la cooperación, que es la fuerza más poderosa en la naturaleza humana”, dice. Tal como él lo ve, un robot inteligente al que le enseñó cooperación será más fácil para los humanos para trabajar con él y relacionarse con él y menos probabilidades de esclavizarnos o cosechar nuestros cuerpos para obtener energía. “Si realmente vamos a aprovechar la IA (Inteligencia Artificial)., vamos a tener que aprender a cooperar con las máquinas”, dice. “El futuro es una película. Podemos hacerlo distópico o utópico “. Oremos por una comedia reconfortante.

Conclusión

Lo que este avance la IA (inteligencia artificial) puede llegar a hacer como resolución de los conflictos del ser humano tanto física como emocionalmente pueden ser maravillosos. Pero de ahí a lograr un símil que resuelva por si mismo de manera autómata e independiente hay poca distancia. Por algún motivo facebook apagó un sistema de IA que consideró peligroso( Lo apagaron realmente?).                                                                                                      Esperemos que la cordura prime sobre investigaciones que pueden llegar a poner en peligro la vida en el planeta. Que la investigación no nos lleve a encrucijadas vivenciales que prioricen al conocimiento a costa de lo que sea. Ojala la ciencia sea al fin puesta al servicio de la vida de manera conciente. Que sea un instrumento de conocimiento que priorice los límites éticos y morales ante todo. Y que el fin no justifica los medios ni los costos sociales del planeta. Los comentarios en color marrón son sugestiones nuestras.(Inteligencia Artificial).

 

Fuente:

https://www.bloomberg.com

Comparte este artículo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *