La apuesta de los gigantes tecnológicos por la Inteligencia Artificial - III
En entradas anteriores analizamos los movimientos de Google y otras grandes empresas tecnológicas en el campo de la Inteligencia Artificial, y más concretamente en algoritmos y entornos de desarrollo para aplicaciones de Machine Learning.
En esta tercera entrega analizamos las iniciativas de Microsoft para desarrollar y aplicar técnicas de aprendizaje automático en distintos ámbitos, posicionándose así en este prometedor mercado.
Todas estas grandes compañías (Amazon, Google, Facebook, IBM y Microsoft) han fundado una organización sobre inteligencia artificial. La Partnership on Artificial Intelligence to Benefit People and Society o, para abreviar, Partnership on AI es la organización sin ánimo de lucro que estos cinco gigantes tecnológicos han decidido poner en marcha en el campo de la Inteligencia Artificial. El objetivo es proporcionar beneficios a la sociedad a través de las oportunidades que presenta esta tecnología.
Para finalizar este repaso mostramos algunas iniciativas en el ámbito del hardware por parte de las grandes empresas del sector para habilitar el desarrollo y despliegue de aplicaciones de machine learning.
Microsoft
Microsoft también está mostrándose muy activa. Por ejemplo, ha realizado movimientos como el lanzamiento de la plataforma Microsoft LUIS (Language Understanding Intelligent Service), en el campo del análisis de lenguaje natural.
También en relación con el Procesado de Lenguaje Natura (PLN), recientemente Microsoft consiguió reducir la tasa de error de reconocimiento de palabras (conocida por las siglas WER) a un mínimo histórico, al 6,3 %. En una evaluación de benchmark realizada con el estándar Switchboard, ha bajado dicha tasa al 6,3 % (la mejor marca anterior era un 6,6 % de IBM). Hace justo dos décadas mejor tasa WER conseguida era de más del 43 %. En los últimos días han mejorado dicha tasa, pasando de un 6,3% a un 5,9%.
Profundizando en esta línea Microsoft espera poder avanzar en la creación de experiencias personales con tecnologías como Cortana o Skype Translator. Entre sus objetivos, están crear sistemas de Inteligencia Artificial capaces de anticiparse a las peticiones de los usuarios y que, además de oír, hablen, vean y, sobre todo, entiendan.
Además, en línea con los entornos proporcionados por Google e IBM, Microsoft va a proporcionar 22 APIs en su nuevo portal cognitivo para que se empiecen a personalizar en base a las necesidades de sus propios proyectos para así ayudar a hacer crecer esta base de tecnología.
En este sentido, Microsoft tratará de llevar la inteligencia artificial a todo el mundo. El objetivo de Microsoft es “democratizar” la Inteligencia Artificial y llevarla a todos sus procesos de negocio. Quiere capacitar a las personas e instituciones para que sean capaces de construir herramientas de Inteligencia Artificial que puedan resolver los problemas más acuciantes de la sociedad y la economía.
Los cuatro pilares fundamentales que apoyan su estrategia en esta línea son los siguientes: agentes, aplicaciones, servicios e infraestructura. Por ejemplo, aprovechar la Inteligencia Artificial para cambiar la forma en que las personas interactúan con los ordenadores, e incorporarla a cualquier aplicación, en todo tipo de dispositivos. Además está construyendo la supercomputadora más potente del mundo en Inteligencia Artificial para que pueda ser aprovechada a través de la nube tanto por grandes como pequeñas empresas.
Para todo ello, la principal herramienta de Microsoft es Cortana Intelligence, la suite de herramientas para desarrolladores que desean crear aplicaciones inteligentes que utilizan las API cognitivas de Microsoft.
Avances en hardware para habilitar aplicaciones de Machine Learning
En el ámbito del hardware podemos destacar a NVIDIA, la cual ha anunciado avances como el Tesla P100 (el primer producto de la GPU PASCAL), dando soporte a las instrucciones de punto flotante de 16 bits que requieren las aplicaciones de Deep Learning eficientes, duplicando el rendimiento y la eficiencia de las GPU típicas. Además, anunció su propio servidor, el DGX-1, para permitir el desarrollo de aplicaciones de Deep Learning basadas en el nuevo chip. Este "súper ordenador", con 8 chips Pascal interconectados en una malla NVLink, puede ofrecer el rendimiento de hasta 250 servidores de procesamiento DNN.
La arquitectura Pascal también cuenta entre su familia de productos las GPUs Tesla P4 y P40. Diseñadas para aplicaciones de Inteligencia Artificial (redes neuronales), permiten afrontan uno de los grandes retos de la Inteligencia Artificial: comprender el contenido de vídeo en escala para aplicaciones como los coches autónomos o los robots interactivos.
Otro de los principales fabricantes de procesadores, como Qualcomm, ha anunciado el lanzamiento de un SDK de Deep Learning. El Snapdragon Neural Processing Engine de Qualcomm se ejecuta sobre la plataforma Zeroth Machine Intelligence de la empresa. Qualcomm permite desarrollar modelos de redes neuronales y utilizarlos para ejecutarse en las aplicaciones de Snapdragon 820, permitiendo “la detección de imágenes, el reconocimiento de texto, el seguimiento de objetos, gestos, el reconocimiento de caras y el PLN”. Esto permitirá que se puedan ejecutar estas operaciones a nivel de dispositivo, sin tener que recurrir al procesamiento en la nube.
Por último, en relación a este aspecto, una serie de pequeñas empresas están comenzando a incorporar el SW de deep learning en sus chips, en particular para aplicaciones móviles. En un plazo bastante corto, es probable que esto suponga que se aumente el nivel de inteligencia de distintos dispositivos, como pueden ser los dispositivos móviles, aviones no tripulados, robots, cámaras, wearables y más.
Add new comment