AI no eso en usted–pero de

0
124

Para todo su esplendor, nuestros teléfonos tienen todavía como inteligencia emocional tanto como pegamento. Sin embargo, como electrónica se convierte cada vez más importante en nuestras vidas, puede tener sentido empezar enseñándoles a ser más conscientes de nuestros sentimientos.

Primeros atisbos de esos esfuerzos eran planes en una reunión de más de 700 los desarrolladores de software de inteligencia artificial, académicos e investigadores esta semana en Manhattan, donde varias charlas se centró en encontrar formas para hacer que nuestros robots asistentes de voz y chatbots más, bien, emocional.

“Las personas están construyendo estas relaciones muy íntimas con los compañeros, pero ahora estos compañeros no tienen ninguna empatía,” Rana el Kaliouby, CEO de la firma de tecnología de reconocimiento emocional Affectiva, dijo el martes en el escenario en la Conferencia inaugural de la Inteligencia Artificial de O’Reilly.

Enseñanza de robots sobre emoción ilustra la promesa y los enormes desafíos en el desarrollo de herramientas de AI. Inteligencia artificial, que permite las máquinas imitan el aprendizaje humano y la resolución de problemas, ya se utiliza para mejorar las búsquedas en Google y explorar Facebook fotografías de rostros. Empresas de mayor tecnología están compitiendo para desarrollar más software de AI a los coches uno mismo-conducción de energía y añadir más inteligencia en sus dispositivos, todo, desde coches a los refrigeradores.

La nueva Conferencia de O’Reilly–que reunió a altavoces de Facebook, Google, Intel y Microsoft–y la creación esta semana de una investigación de AI sin fines de lucro respaldada por una que es-quién de los pesos pesados de la tecnología son sólo dos muestras de la prominencia creciente de AI, con más programas de AI su camino fuera del mundo académico y en el mundo real.

Pero hay toneladas de trabajo que aún tiene que pasar para que esta tecnología sea más útil. Enseñar a una máquina utilizando técnicas de AI es desperdiciador de tiempo, y después de este entrenamiento, las máquinas pueden ser engañadas por sorpresas incluso menores.

“Estamos todavía un poco en el principio, pero ya se puede ver que las personas son muy contentos de tenerlo en sus negocios,” Ben Lorica, científico de datos principal de o ‘ Reilly Media, dijo en una entrevista en la Conferencia. “Definitivamente va a ser un florecimiento de estas aplicaciones inteligentes.”

Un nuevo tipo de compañero

Hay beneficios de enseñarle a leer nuestras voces y rostros de emoción teléfonos y ayudantes de robot. Asistentes de voz como Siri o Alexa podría ser capaces de entender nuestras necesidades si podría recoger en nuestro sarcasmo, alegría o ira. Ejemplo, el Kaliouby sugirió que el teléfono incluso podría ser capaces de medir su bienestar mental al leer sus expresiones faciales.

Y asistente de hogar robots podrían convertirse en más persuasivos al intentar conseguir que tome su medicina diaria o ejercicio, dijo. Los anunciantes y estudios de cine podrán usar también estas herramientas para probar anuncios y trailers de películas.

Los investigadores destacan un puñado de ejemplos tempranos de robots emocionales. Pimienta, un robot humanoide, ojos grandes construido por robótica de SoftBank de Japón, fue entrenado para identificar alegría, tristeza, enojo y sorpresa. Xiaoice, un chatbot creado por Microsoft y está disponible en China y Japón, ofrece “apoyo emocional” por comercio mensajes con sus más de 40 millones de usuarios.

Proyectos más pequeños incluyen un robot peludo, social del MIT, llamado Tega, que tiene como objetivo ayudar a los estudiantes a aprender. Un orador inteligente de la Universidad de Hong Kong de ciencia y tecnología, llamado MoodBox, cambia su iluminación y sugiere diferentes tipos de música para jugar dependiendo de cómo te sientes.

Dar a los robots capacidades emocionales plantea evidentes preocupaciones sobre la privacidad de los usuarios y robots intrusos o creepy.

No tenemos pánico absolutamente todo (además, el teléfono está buscando a usted). Como con muchas otras herramientas avanzadas de la AI, hay un montón de retos para hacer realidad el robots detección de emoción. Por ejemplo, al construir una biblioteca de expresiones faciales a robots, es difícil de categorizar lo que enojo o miedo hasta parece. Tal vez es a veces ambos.

También, algunas emociones se expresan a través de inflexiones vocales y expresiones faciales, máquinas pueden necesitar aprender a seguir a ambos y en tiempo real. Los seres humanos, después de todo, somos bastante complicados cuando se trata de emociones.

Así que esos obstáculos significan que todavía tenemos un largo camino por recorrer antes de que su nevera inteligente puede llorar junto con usted mientras que usted mira “The Notebook” juntos.

AI no eso en usted–pero de

LEAVE A REPLY