Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, BarranquillaColombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
Sistema de Reconocimiento de objetos en tiempo real
Real-time Object Recognition System
Jorge Estarita, Andrés Jiménez, Jaime Brochero, Hugo Escobar, Silvia Moreno
Universidad Simon Bolivar, Barranquilla
Resumen
En la actualidad la inteligencia artificial ha sido un avance para el mundo tecnológico, lo cual nos ha sido
de gran beneficio. Con este proyecto lo que se busca es aplicar la visión artificial para el reconocimiento de
un objeto, el cual será detectado a través de una cámara Web permitiendo que el software del sistema por
medio de análisis de patrones determine si este coincide con alguno de los objetos previamente registrados
en una base de datos.
Palabras clave:
Opencv, Vision Artificial, Sift, Surf, Inteligencia Artificial.
Abstract
At present, artificial intelligence has been an advance for the technological world, which has been of great
benefit to us. With this project what is sought is to apply the artificial vision for the recognition of an object,
which will be d etected through a Web camera allowing the system software through pattern analysis to
determine if it matches any of the objects previously registered in a database.
Key words:
Opencv, Artificial Vision, Sift, Surf, Artificial Intelligence.
I. Introducción
La visión artificial se aplica en distintos campos un ejemplo la
medicina en la cual se usa mucho para hacer comparaciones de
radiografías, resonancias magnéticas y tomografías. También se aplica
en la biología debido a que se pueden d istinguir entre aplicaciones
microscópicas y macroscópicas. Incluso para el reconocimiento y
clasificación de objetos que de hecho se usara en la realización de este
proyecto para poder identificar un objeto según el tamaño y su forma.
Sin duda alguna la importancia que genera la inteligencia artificial es
muy grande en la actualidad y por eso hemos querido implementarla
en un sistema de reconocimiento de objetos óptimo que al momento de
querer reconocer imágenes nos dé un excelente resultado, y pueda
satisfacer nuestras necesidades de acuerdo al problema que tengamos
en el momento.
II. Marco teórico
Visión Artificial
Es una rama de la inteligencia artificial que tiene por objetivo modelar
matemáticamente los procesos de percepción visual en los seres vivos
y generar programas que permitan simular estas capacidades visuales
por computadora. La visión artificial permite la detección automática
de la estructura y propiedades de un posible mundo dinámico en 3
dimensiones a partir una o varias imágenes b idimensionales del
mundo. Las imágenes pueden ser monocromáticas o a color; pueden
ser capturadas por una o varias cámaras, y cada cámara p uede ser
estacionaria o móvil. La estructura y propiedades del mundo
tridimensional que se intentan deducir en la visión artificial incluyen
no sólo propiedades geométricas (tamaños, formas, localización de
objetos, etc.), sino también propiedades del material (sus colores, sus
texturas, la composición, etc.) y la luminosidad u oscuridad de la s
superficies [1].
Sift(Scale-invariant feature transform)
Es un algoritmo de reconocimiento d e objetos que es aplicado en el
área de visión artificial, este fue creado por David lowe en 1999 que se
encarga de extraer ciertas características de las imágenes en escala de
grises. Mediante estas, es posible luego reconocer dicha imagen dentro
de una base de datos o incluso dentro de otra imagen mayor con otra
cantidad de elementos en desorden. Estas características son
invariantes a factores de escala, traslación, rotación y parcialmente
invariantes a cambios de iluminación y afinidades. [2]
SURF( Speeded Up Robust Features)
Es uno de los algoritmos más utilizados para extracción de puntos de
interés en el reconocimiento de imágenes (Valgren & Lilienthal, 2010).
La extracción de los puntos la realiza detectando en primer lugar los
posibles puntos de interés y su localización dentro de la imagen. Es
mucho más rápido que el método SIFT, ya que los puntos clave
contienen muchos menos descriptores debido a que la mayor cantidad
de los descriptores son cero. Este descriptor se puede considerar una
mejora debido a que las modificaciones que supondría en el código no
Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, BarranquillaColombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
serían excesivas, ya que el descriptor SURF utiliza la gran mayoría de
las funciones que utiliza el descriptor SIFT [3].
En la universidad Autónoma de ciudad Juárez en México se
implementaron los algoritmos de reconocimiento de patrones SURF y
SIFT en plataformas robóticas móviles permite el uso de los mismos
en una serie de tareas amplias como lo pueden ser el acomodo de libros
en una biblioteca de manera automática o la selección y aislamiento de
material peligroso. se realizó utilizando la Interfaz de Programación de
Aplicaciones (API) de una plataforma robótica móvil Robotino, las
librerías de código libre OpenCV y el sensor de visión propio del robot.
Se buscó ampliar los datos obtenidos implementando dichos
algoritmos de manera autónoma en plataformas nuevas adquiridas y
calibrando empíricamente cada algoritmo independientemente. [4]
III. Estado del arte
En la universidad Central de Florida se aplicó el reconocimiento de
objetos mediante un modelo 2D en un proyecto. Para empezar, se
definió la topología la cual cumpliese un papel fundamental para la
identificación de objetos de tal forma que se pudiese representar en un
gráfico, mediante este se planeó el manejo de imágenes redundantes.
Luego se utilizó la continuidad del movimiento en video y
entendimiento. Después se aplicó un algoritmo para realizar las
coincidencias basadas en la entrada de video Y demostrar que los
resultados obtenidos utilizando una secuencia de vídeo Son mucho más
robustos que el uso de una sola imagen. Este enfoque es nuevo debido
a que no se requiere ningún conocimiento de Calibración de la cámara
o punto de vista mientras genero el modelo.[5]
En la Universidad de Carnegie Mellon se realizó un trabajo el cual
proponía un enfoque probabilístico para Modelización y
reconocimiento de categorías de objetos que combina dos tipos de
evidencia visual complementaria, visual Contenidos y enlaces
interconectados entre las imágenes. De esta manera, el enfoque no sólo
incrementa el modelado y reconocimiento. También ofrece posibles
soluciones a varios problemas incluyendo el modelado de la
información geométrica, La complejidad computacional y la
ambigüedad inherente De palabras visuales. Este puede ser
incorporado en cualquier modelo generativo, pero aquí consideramos
dos Modelos, pLSA y LDA. Los resultados experimentales muestran
modelos de temas actualizados mediante la adición de términos de los
modelos pLSA y LDA estándar [6].
En la universidad Del Cairo, Egipto se desarrolló una plataforma
robótica para los sistemas de monitoreo y vigilancia aplicando el uso
de visión artificial a través de Opencv. Se tuvo muy en cuenta que estos
sistemas son considerados como uno de los más confiables y
comúnmente utilizados de los sistemas de seguridad.
Estos dependen en gran medida de la interacción humana para una
óptima operación. En un entorno en el que un alto nivel de seguridad
es necesario, los problemas causados por errores h umanos no son
aceptables. Eliminando la interacción humana de la vigilancia
automática en los sistemas de seguridad, se pudo crear un sistema de
seguridad más fiable para tasa de detección y prevención de delitos.
Esto sólo pudo lograrse mediante la introducción de capacidades de
visión por ordenador a estos sistemas. Estos sistemas autónomos deben
ser capaces de reunir Información de los fotogramas capturados por el
circuito cerrado Televisión (CCTV) y las utilizan para diferentes
aplicaciones Tales como reconocimiento de placas de matrícula de
vehículos, reconocimiento facial, etc. [7].
En la universidad nova de Lisboa, se desarrolló un sistema móvil en
tiempo real para reconocimiento de objetos. el sistema se ejecuta
localmente en un dispositivo móvil. dispositivo. se diferencia de los
enfoques más comunes para sistemas móviles, ya que no necesita
conectarse a un servidor para procesar imágenes y clasificación. los
métodos propuestos son eficientes y fiables, lo que significa que dan
una rápida el usuario móvil y, al mismo tiempo, tienen razonables de
detección/ identificación. la ráp ida retroalimentación promueve una
mejor interacción y cooperación entre el usuario y la aplicación móvil,
por consiguiente, también puede mejorar la calidad de la detección/
identificación. [8]
En la universidad de Augsburgo, se propuso un método altamente
efectivo y escalable, un framework para el reconocimiento de logotipos
en imágenes. En el centro de este método establece un método para
codificar e indexar la distribución espacial relativa de las características
locales detectadas en el logotipo imágenes. basado en el análisis de las
características locales y composición de estructuras espaciales básicas,
como triángulos se puede derivar una representación cuantificada de
las regiones en los logotipos y minimizar las detecciones de falsos
positivos. además, se propuso un índice en cascada para
reconocimiento multi-clase de logos. para la evaluación de nuestro
sistema se construyó y lanzó un punto de referencia de reconocimiento
de logotipo que consiste en imágenes d e logotipo etiquetadas
manualmente, complementadas con imágenes, todas publicadas en
Flickr. el conjunto de datos consta de un entrenamiento, validación y
prueba con 32 clases de logotipo. [9]
En la universidad de Tokio, se aplicaron una serie de técnicas de
procesamiento d e Imagen, audio y análisis de texto para el
reconocimiento de objetos en un programa en vivo. Para entender los
enunciados en videos de acuerdo con la Escena, fue esencial reconocer
el objeto aparece en el Video. Primero un Tema de cada segmento de
video se identifica en base a HMMs Para obtener buenos ejemplos para
la adquisición del modelo de objeto. Después de eso, las imágenes en
primer plano se extraen de secuencias de imágenes, Y una región de
atención en la imagen en primer plano es determinado. Entonces, una
palabra importante se extrae como una Palabra clave de enunciados
alrededor de la imagen de primer plano, y Se hace correspo nder a la
imagen de primer plano. Recolectando un Conjunto de imagen de
primer plano y palabra clave de una gran cantidad de Videos, modelos
de objeto se adquieren. Después de adquirir el objeto Modelos, el
reconocimiento de objetos se realiza en base Mod elos d e objetos
adquiridos e información lingüística. [10]
En la universidad central de Venezuela, se desarrolló un sistema
reconocedor-seguidor mediante el cual se pudiese reconocer los
objetos mediante 2 redes neuronales las cuales fueron utilizadas para
el procesamiento de imágenes. El uso d e estas fue tan importante
porque funcionan mediante ejemplos y el usuario no necesita conocer
los fenómenos subyacentes, también permiten ejecutar procesamiento
paralelo. La primera red se especializa en seguir un objeto seleccionado
y una vez entrenada participa en un sistema de control a lazo cerrado
en el cual las imágenes recibidas controlan directamente el movimiento
del ojo. Este arreglo reproduce artificialmente un fenómeno similar al
micro temblor ocular (OMT, por sus siglas en inglés) característico en
los ojos de los mamíferos. Las señales OMT son guardadas en
elementos de memoria de corta duración y se convierten en la entrada
de una segunda red neural que converge en una única “célula
concepto”, cuya actividad determina la presencia del objeto
seleccionado. [11]
Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, BarranquillaColombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
En La Universidad de Naples, se desarrolló una aplicación móvil la
cual cumple la función de reconocimiento de imágenes para crear y
entregar contenidos multimedia por servicios ubicuos para el público.
Las técnicas de reconocimiento de imágenes han sido utilizadas para
desarrollar herramientas, que emergen como un soporte para expertos
y aplicaciones y servicios para usuarios finales, que mejoren y
simplifiquen la interacción del usuario con la cultura patrimonio. Se
proporcionó detalles sobre la implementación Tecnologías y se
concentró en el procesamiento de imágenes, Técnica utilizada para el
desarrollo de componentes más relevantes. Como se ve, con el teléfono
inteligente conectado a Internet, Interacción visual es la más intuitiva
y fácil Encontrar información relevante para el contexto en el que se
Usuario se encuentra y es relevante para sus intereses. La navegación
permite, mediante GPS, brújula y RFID, visitar el sitio según itinerarios
culturales impulsados por el interés del usuario. El procesamiento de
imágenes se utiliza para extraer in formación semántica y hacer
transparente al usuario la utilización de Ontologías para el
descubrimiento inteligente o contenidos relevantes En técnicas
semánticas. El usuario puede utilizar la cámara de su teléfono Señalar
un objeto de interés para reconocer los detalles del Imagen, para
recuperar información cultural y contenidos de nuevos medios Que
están semánticamente relacionados con esa imagen. [12]
En la universidad de Scotland, se desarrolló u n framework el cual
utiliza visión computacional de alto nivel conocido como VisionCPP.
El cual que aborda la Portabilidad de las apli caciones de visión
computarizada desarrolladas Sobre diferentes plataformas habilitadas
para OpenCL. VisionCPP apoya la construcción en tiempo de
compilación y optimización De kernels de OpenCL utilizando SYCL
como back-end Para apuntar plataformas habilitadas para OpenCL.
Este Es ideal para plataformas incrustadas, ya que impide la
imprevisibilidad Construcción en tiempo de ejecución y uso de
memoria requerido Para los kernels OpenCL de aplicaciones de visión.
Tomar ventaja Del estilo de programación de una sola fuente de SYCL,
VisionCPP Permite a los programadores desarrollar fácilmente una
visión personalizada Operaciones en C ++. [13]
En la universidad de Wellington, nueva Zelanda se aplicó dentro de la
programación genética(GP) la forma óptima de describir Los puntos
extraídos de la imagen por el algoritmo SIFT. Atraves de las pruebas y
los resultados de las estas se notó que el programa más apto de la
programación genética puede mejorar los descriptores SIFT estándar
después de Sólo unas pocas generaciones de una pequeña población.
Mientras que los primeros resultados Pueden no mostrar mayores
mejoras que los estándares SIFT, abren la puerta a nuevas
investigaciones y experimentación. [14]
En la Universidad de François Rabelais, se desarrolló una aplicación
para el reconocimiento de objetos usando el reconocedor de
marcadores para poder identificar lo s elementos que se enfoquen
mediante la cámara de una tableta y esta se encar ga de dar una
descripción acerca del objeto. Ese estudio abre la posibilidad de que la
posibilidad mejorar el aplicativo que contenga un mejor procesamiento
de imágenes Y métodos de aprendizaje automático. También que sea
usado para reconocer en tiempo real. [15]
En la universidad de Firenzi, se realizó un proyecto de reconocimiento
fiable para un robot de los objetos según el medio ambiente. El trabajo
se realizó sobre el hecho de que los robots pueden observar a los seres
humanos interactuando con los objetos en su entorno, y por lo tanto
proporcionando numerosas señales no visuales a las identidades de
esos objetos. se investigó un enfoque flexible de reconocimiento de
objetos Que puede utilizar cualquier señal múltiple, si son visuales
Claves intrínsecas al objeto o proporcionadas por la observación de un
humano. Se notó la difícil cuestión de que múltiples pistas las cuales
Pueden tener diferente peso en su asociación con un objeto Definición
y deben tenerse en cuenta durante el reconocimiento. [16]
En la universidad Veracruzana, se realizó un trabajo acerca del
aprendizaje y reconocimiento método para un humanoide. Este método
tiene por objetivo ventaja de los recursos de la nube, ya que se basa en
la imagen búsqueda web para construir conjuntos de entrenamiento
para objetos de aprendizaje apariencia. En caso de que el acceso a
internet no esté disponible, el robot humano podrá mostrar los objetos
y adquirir las imágenes usando su cámara. a través de esta técnica, el
método pretende ser el marco natural para la interacción humano-robot
y para proporcionar tanta autonomía como sea posible al robot. [17]
En la universidad de Firenze, se desarrolló un proyecto con el objetivo
de realizar la cl asificación de objetos en tiempo real y el
reconocimiento de ilustraciones usando un d ispositivo portátil, para
mejorar la experiencia del usuario durante una visita al museo
proporcionando información contextual y realizando perfiles de
usuario. se propuso el uso de una red CNN compacta que realiza la
clasificación de objetos y la localización de ilustraciones y, usando las
mismas características de CNN, con el propósito de un reconocimiento
robusto de las ilustraciones. [18]
En la universidad de Texas tech, se desarrolló un algoritmo que permite
a los robots identificar un Conjunto de objetos interesantes, utilizando
la apariencia y contextual Cues extraídas de un pequeño número de
imágenes para aprender eficientemente Modelos de estos objetos. Los
robots aprenden el mapa del dominio y consideran Objetos que se
mueven para ser interesantes, usando señales de movimiento para
identificar Las regiones de imagen correspondientes. Modelos de
objetos aprendidos automáticamente De estas regiones consisten en la
disposición espacial del gradiente Características, modelos basados en
gráficos de vecindades de características de gradiente, Modelos
basados en partes de segmentos de imagen, distribuciones de color, Y
modelos de mezcla de contexto local. Los modelos aprendidos se
utilizan Para el reconocimiento de objetos en escenas novedosas
basadas en la minimización de la energía Y un modelo generativo para
la fusión de la información. [19]
IV. Metodología
La metodología que se plantea utilizar en este proyecto es la
cuantitativa debido a los objetivos planteados que están enfocados en
la realización de un asistente inteligente, estos se planean ejecutarlos
en una serie de fases. También se plantea usar conocimientos de
artículos de investigación que estén relacionados con la realización de
este proyecto. Además, cabe incluir de que se analizaran los artículos
que puedan ser de gran utilidad durante la realización de este proyecto.
Fases de desarrollo:
1. Revisión estado del arte: se analizarán los artículos que se
encuentren y estén relacionados con las técnicas de reconocimiento de
objetos en tiempo real. Teniendo en cuenta la forma en que se aplicaron
estas para los proyectos desarrollados.
2. Especificación de requerimientos: se analizarán una serie de
algoritmos de reconocimiento de objetos como el SURF y el SIFT para
determinar cuál es el más eficiente para la realización del proyecto.
Después del análisis se hizo uso del Algoritmo SIFT debido a que es
mucho más eficiente al momento de realizar el proceso de
Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, BarranquillaColombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
reconocimiento de objetos. Una vez hecho se procedió a definir los
requerimientos funcionales del software.
3. Diseño y Desarrollo : Considerando la estructura que
conforma el software, se procedió a realizar el desarrollo del software
en base a los requerimientos que se planteen en la fase anterior.
4. Etapa de pruebas: se realizó una serie de ensayos con el
software desarrollado. Para esto se usarán unos objetos los cuales
deberán ser reconocidos por éste, teniendo en cuenta el tipo que este
aplique SIFT.
V. Herramientas utilizadas
Para la realización de este proyecto se utilizaron una serie de
herramientas las cuales fueron de gran utilid ad para la realización del
proyecto entre esas:
- Python 2.7
Python es un lenguaje de programación poderoso y fácil de aprender.
Cuenta con estructuras de datos eficientes y de alto nivel y un enfoque
simple pero efectivo a la programación orientada a objetos. La elegante
sintaxis de Python y su tipado dinámico, junto con su naturaleza
interpretada, hacen de éste un lenguaje ideal para scripting y desarrollo
rápido de aplicaciones en diversas áreas y sobre la mayoría de las
plataformas.
El intérprete de Python y la extensa biblioteca estándar están a libre
disposición en forma binaria y d e código fuente para las principales
plataformas desde el sitio web de Python, http://www.python.org/, y
puede distribuirse libremente. El mismo sitio contiene también
distribuciones y enlaces de muchos módulos libres d e Python de
terceros, programas y herramientas, y documentación adicional. [20]
- OpenCV
Librería desarrollada por Intel para el uso de visión artificial la cual
maneja detección de rostros e imágenes en tiempo real. Esta librería ha
sido usada d esde el manejo de sistemas de seguridad para poder
detectar el movimiento hasta el reconocimiento de objetos.
Actualmente esta librería es gratuita debido a que la licencia es tipo
BSD (Libre Uso), esto nos permitiría hacer uso de esta en la parte
comercial e investigativa. [21]
- Tkinter
Tkinter es un binding de la biblioteca gráfica Tcl/Tk para el lenguaje
de programación Python, con estos queremos decir que Tk se encuentra
disponible para varios lenguajes de programación entre los cuales se
encuentra Python con el nombre de Tkinter. Este no es más que una
adaptación de esta librería para el lenguaje Python con lo cual usar Tk
en otro lenguaje no nos supondrá un inconveniente.
Se considera un estándar para la interfaz gráfica de usuario (GUI) para
Python y es el que viene por defecto con la instalación para Microsoft
Windows y preinstalado en la mayoría de las distribuciones de
GNU/Linux. Con Tkinter podremos conseguir resultados casi tan
buenos como con o tras librerías gráficas siempre teniendo en cuenta
que q uizás con otras herramientas podamos realizar trabajos más
complejos donde necesitemos una plataforma más robusta, pero como
herramienta didáctica e interfaces sencillas nos sobrara, dándonos una
perspectiva de lo que se trata el desarrollo de una parte muy importante
de una aplicación si deseamos distribuirla. [22,23]
VI. Resultados
Al momento de realizar el software se planeó hacer una serie de
interfaces graficas usando la librería Tkinter, con el propósito de que
estas sean agradables p ara el que el usuario se sienta cómodo.
Comenzando con la figura 1.
Figura 1. Menú Principal
La figura principal muestra un menú el cual tienes las opciones de
iniciar el proceso de reconocimiento de objetos usando los objetos que
están predeterminados en la base de datos.
Antes de iniciar el co mputador que haga uso del software debe tener
cámara ip para poder realizar el proceso. Luego de dar inicio se muestra
una ventana la cual aparece la persona y esta muestra h acia la cámara
el objeto a detectar como se muestra en la figura 2 y luego le aparecerá
una ventana la cual muestra la información del Objeto.
Figura 2 Reconocimiento de una tarjeta.
Luego el usuario presiona el botón salir de la nueva ventana y en el
menú principal puede iniciar el proceso para analizar otro objeto.
Para que el reconocimiento de objetos sea exitoso la imagen del objeto
debe ser clara y en formato .jpg y la descripción de tener el mismo
nombre de la imagen.
La segunda in terfaz muestra la información acerca de este software
desarrollado y quienes hicieron parte de su desarrollo. Esto se ve en la
Figura 3.
Figura 3 acerca del reconoce Objetos
VII. Conclusión
Se ha construido un sistema con el propósito de reconocer los objetos
los cuales sean mostrados a través de la cámara web y este se encargará
de identificarlos mediante el algoritmo que sea implementado durante
el desarrollo del aplicativo. Todo esto con el propósito de que este sea
lo más eficiente para su uso en un sistema inteligente.
El algoritmo aplicado en el software fue el SIFT esto se debe que al
momento de realizar la s pruebas de reconocimiento de tanto con los
algoritmos SIFT y SURF se notó que el primero era mucho más
eficiente porque se demoraba 5 segundos en realizar el procesamiento
mientras que el segundo se demoraba 12 segundos. También, cabe
mencionar que no consumía tantos recursos del ordenador al momento
de hacer su uso. Además, al momento de aplicar el Algoritmo SURF
para reconocer más de una imagen se notaba la deficiencia de este
comparado con el algoritmo SIFT.
Cabe destacar que los objetos a los cuales se les quiera realizar el
reconocimiento, sus imágenes deben ser lo más claras para que el
algoritmo no tarde en realizar el proceso.
Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, BarranquillaColombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
Este software fue desarrollado en el lenguaje de Python, este fue de
utilidad para encontrar los algoritmos que fuesen necesarios para la
realización del software y también la librería Tkinter para diseñarle una
interfaz presentable para que sea fácil de usar.
VIII. Agradecimientos
El siguiente trabajo fue realizado mediante la supervisión de la
ingeniera Silvia Moreno, a quien le queremos dar el agradecimiento
por haber trabajado con nosotros durante la realización de este
proyecto. También, por el tiempo, paciencia y control de todo el
proceso realizado durante todo este tiempo para que todo resultase de
la manera más eficaz posible.
IX. Referencias bibliográficas
[1] Carlos. Platero Dueñas, “Introducción a la Visión Artificial,”
p. 28, 2009.
[2] Pablo. Flores and Juan. Braun, “Algoritmo SIFT :
fundamento teórico,” pp. 1–5, 2011.
[3] David G. Lowe. 2004. “Distinctive Image Fe atures from Scale-
Invariant Keypoints.” (November 2004).
[4] Lorenzo García Tena, Humberto Sossa, Alejandro Alvarado,
Osslan Vergara, Victor Manuel Hino stroza Zubia, Francisco Javier
López Benavides, “Reconocimiento de objetos en una plataforma
robótica móvil Introducción,” no. 55.
[5] Humera Noor, Shahid H. Mirza, Yaser Sheikh, Amit Jain,
Mubarak Shah, “Model generation for video-based object recognition,”
Proc. 14th Annu. ACM Int. Conf. Multimed. - Mu ltimed. ’06, p. 715,
2006.
[6] Gunhee Kim, Christos Faloutsos, Martial Hebert,
“Unsupervised modeling and recognition of object categories with
combination of visual contents and geometric similarity links,”
Proceeding 1st ACM Int. Conf. Multimed. Inf. Retr. - MIR ’08, p. 419,
2008.
[7] Ahmed Aly Ibrahim, Zainhom Sayed Ghareeb, Omar M.
Shehata, El-Sayed Imam Morgan, “A Robotic Surveillance Platform
Based on an On-board Computer Vision Approach,” P roc. 4th Int.
Conf. Control. Mechatronics Autom. - ICCMA ’16, pp. 41–45, 2016.
[8] Ana Lameira, Rui Jesus, Nuno Correia, “Real-Time Object
Recognition using Mobile Devices,” pp. 687–690, 2011.
[9] Stefan Romberg, Luis Garcia Pueyo, Roelof van Zwol,
Rainer Lienhart, “Scalable Logo Recognition in Real-World Images
Categories and Subject Descriptors.”
[10] Tomohide Shibata, Norio Kato, Sadao Kurohashi,
“Automatic object model acquisition and object recognition by
integrating linguistic and visual information,” Proc. 15th Int. Conf.
Multimed. - Multimed. ’07, p. 383, 2007.
[11] OSCAR GUILLERMO CHANG, “Deteccion de objetos
complejos usando redes neurales y micro temblor ocular,” Rev. la Fac.
Ing., vol. 28, no. 4, pp. 4956, 2013.
[12] Alba Amato, Salvatore Venticinque, Beniamino Di Martino,
“Image Recognition and Augmented Reality in Cultural Heritage
Using OpenCV,” Proc. Int. Conf. Adv. Mob. Comput. Multimed. -
MoMM ’13, pp. 53–62, 2013.
[13] Mehdi Goli, “VisionCPP: A SYCL-based Computer Vision
Framework,” Fourth Int. Work. OpenCL, pp. 2–5, 2016.
[14] Samuel Hindmarsh, Peter Andreae, Mengjie Zhang, “Genetic
programming for improving image descriptors generated using the
scale-invariant feature transform,” Proceedings of the 27th Conference
on Image and Vision Computing New Zealand - IVCNZ ’12. p. 85,
2012.
[15] Frederic Rayar, Armand Renaudeau, “Marker-free Object
Recognition on Tabletops,” Proc. 2015 Int. Conf. Interact. Tabletops
Surfaces - ITS ’15, pp. 373–378, 2015.
[16] Sarah Aboutalib, Manuela Veloso, “Towards using multiple
cues for robu st object recognition,” Proc. 6th Int. Jt. …, vol. 5, pp.
11521159, 2007.
[17] Enrique Hidago Peña, Luis Felipe Marin Urias, Fernando
Montes Gonzalez, Antonio Marın-Hernandez, Homero V. Rıos
Figueroa, “Learning from the Web: Recognition method based on
object appearance from Internet images,” ACM/IEEE Int. Conf.
Human-Robot Interact., pp. 139140, 2013.
[18] Giovanni Taverriti, Stefano Lombini, Lorenzo Seidenari,
Marco Bertini, Alberto Del Bimbo, “Real-time Wearable Computer
Vision System for Improved Museum Experience” pp. 1–2, 2015.
[19] Xiang Li, Mohan Sridharan, Catie Meador, “Learning Visual
Object Models on a Robot Using Context and Appearance Cues,” Proc.
2013 Int. Conf. Auton. Agents Multi-agent Syst., no. Aamas, pp. 1167
1168, 2013.
[20] «Python,» [En línea]. Available:
http://docs.python.org.ar/tutorial/pdfs/TutorialPython2.pdf. [Último
acceso: 12 10 2017].
[21] «OpenCV,» [En línea]. Available: http://opencv.org/. [Último
acceso: 20 03 17].
[22] David Salazar Moreno, «Github,» [En línea]. Available:
https://github.com/eliluminado/Guia-
Tkinter/blob/master/Interfaz%20grafica%20con%20Tkinter.wiki.
[Último acceso: 12 10 2017].
[23] E Embuz, J D Fernández-Ledesma, “Propuesta de un Método para
la Aplicación de un Modelo de Simulación Basada en Agentes del
Sistema Regional de Innovación”, Revista Investigación e Innovación
en Ingenierías, vol. 3 (2), 2015.