Revista I+D en TIC Volúmen 8 Nùmero (1) pp. 31-33 Universidad Simón Bolívar, Barranquilla–Colombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic/index
Amazon Machine Learnin g se basa en la tecnología ML
probada y altamente escalable que la comunidad interna de
científicos de datos de Amazon ha usado durante años. El
servicio utiliza algoritmos potentes para crear modelos de ML
al detectar patrones en los datos existentes. A continuación,
Amazon Machine Learning utiliza estos modelos para procesar
datos nuevos y generar predicciones para su aplicación. [2]
Amazon Machine Learning es altamente escalable y puede
generar miles de millones de predicciones al día, además de
abastecer d ichas predicciones en tiempo real y con un
desempeño excelente. Con Amazon Machine Learning no se
necesita ninguna inversión inicial en hardware o software.
Pagará lo que utilice, de modo que podrá comenzar con pocos
recursos y escalar el servicio a medida que crezca su aplicación.
[3]
IBM Watson Y Aprendizaje Automático
Watson es un sistema informático de inteligencia artificial que
es capaz de responder a preguntas formuladas en lenguaje
natural, desarrollado por la corporación estadounidense IBM.
Forma parte del proyecto del equipo de investigación DeepQA,
liderado por el investigador principal David Ferrucci. Lleva su
nombre en honor del fundador y primer pr esidente de IBM,
Thomas J. Watson.
Watson responde a las preguntas gracias a una base de datos
almacenada localmente. La información contenida en ese base
de datos proviene de multitud de fuentes, incluyendo
enciclopedias, diccionarios, tesauros, artículos de noticias, y
obras literarias, al igual que bases de datos externos,
taxonomías, y ontologías [4].
Tensor flow y Aprendizaje Automático
Las aplicaciones de Google ahora son más inteligentes gracias
al nuevo sistema de aprendizaje automático TensorFlow, que es
más rápido, inteligente y flexible que su anterior sistema. Se
puede adaptar con mayor facilidad a nuevos productos y es
altamente escalable. Se puede ejecutar en un solo teléfono
inteligente o en los miles de ordenadores en los centros de datos.
Además, permite construir redes neuronales hasta cinco veces
más rápidas que el anterior sistema de primera generación usado
por Google.
El sistema de aprendizaje automático TensorFlow está
especializado para el reconocimiento de voz, reconocimiento de
textos y reconocimiento de imágenes, pero su inteligencia
artificial todavía está en s u infancia. Según Google todavía no
puede hacer lo que un niño de 4 años hacer sin esfuerzo, como
saber el nombre de un dinosaurio después de ver solamente un
par de ejemplos, o entender que "vi el Gran Cañón volando a
Chicago" no significa que el cañón estaba volando sobre la
ciudad.
Google ha visto que TensorFlow tendrá un impacto aún más
grande fuera de sus instalaciones y productos. Por ello, para que
su sistema de aprendizaje automático evolucione con mayor
rapidez y hayan más aplicaciones inteligentes, han liberado el
código fuente del proyecto TensorFlow para que investigadores
y desarrolladores colaboren junto a Google para mejorar este
gran sistema de inteligencia artificial. [5]
II. Desarrollo de la investigación
Los modelos basados en reglas facilitan que cualquier persona
cree un chatbot. Pero es increíblemente difícil crear un bot que
responda a consultas complejas. La coincidencia de patrones es
un poco débil y por lo tanto, los bots basados en
AIML(Artificial Intelligence Markup Language) sufren cuando
encuentran una oración que no contiene patrones conocidos.
Además, es mucho tiempo y requiere mucho esfuerzo para
escribir las reglas manualmente. ¿Qué pasa si podemos
construir un bot que aprende de conversaciones existentes (entre
humanos)? Aquí es donde entra en juego el aprendizaje
automático.
Llamemos a estos modelos que aprenden automáticamente de
los datos, modelos inteligentes. Los modelos inteligentes
pueden ser clasificados en:
Modelos basados en la recuperación
Modelos Generativos
Los modelos basados en Recuperación seleccionan una
respuesta de una colección de respuestas basada en la consulta.
No genera nuevas oracio nes, por lo tanto no necesitamos
preocuparnos por la gramática [6]. Los modelos Generativos
son bastante inteligentes. Generan una respuesta, palabra por
palabra basada en la consulta. Deb ido a esto, las respuestas
generadas son propensas a errores gramaticales. Estos modelos
son difíciles de entrenar, ya que necesitan aprender la estructura
de o ración adecuada por sí mismos. Sin embargo, una vez
entrenados, lo s modelos generativos superan a los modelos
basados en recuperación en términos de manejo de consultas no
vistas anteriormente y crear una impresión d e hablar con un
humano (un niño pequeño puede ser) para el usuario .
SEQ TO SEQ
El modelo Sequence To Sequence introducido en el aprendizaje
de representaciones de frases utilizando RNN Encoder-Decoder
para Statistical Machine Translation se ha convertido desde
entonces en el modelo Go-T o para sistemas de diálogo y
traducción automática. Consiste en dos RNNs (Recurrent
Neural Network): un codificador y un decodificador[7]. El
codificador toma una secuencia (oración) como entrada y
procesa un símbolo (palabra) en cada timestep. Su objetivo es
convertir una secuencia de símbolos en un vector de
características de tamaño fijo que codifica sólo la información
importante en la secuencia mientras se pierde la información
innecesaria [8-10].