Revista I+D en TIC Volumen 8 Número (2) pp. 41 - 45 Universidad Simón Bolívar, Barranquilla–Colombia. ISSN:2216-1570
http://revistas.unisimon.edu.co/index.php/identic
serían excesivas, ya que el descriptor SURF utiliza la gran mayoría de
las funciones que utiliza el descriptor SIFT [3].
En la universidad Autónoma de ciudad Juárez en México se
implementaron los algoritmos de reconocimiento de patrones SURF y
SIFT en plataformas robóticas móviles permite el uso de los mismos
en una serie de tareas amplias como lo pueden ser el acomodo de libros
en una biblioteca de manera automática o la selección y aislamiento de
material peligroso. se realizó utilizando la Interfaz de Programación de
Aplicaciones (API) de una plataforma robótica móvil Robotino, las
librerías de código libre OpenCV y el sensor de visión propio del robot.
Se buscó ampliar los datos obtenidos implementando dichos
algoritmos de manera autónoma en plataformas nuevas adquiridas y
calibrando empíricamente cada algoritmo independientemente. [4]
III. Estado del arte
En la universidad Central de Florida se aplicó el reconocimiento de
objetos mediante un modelo 2D en un proyecto. Para empezar, se
definió la topología la cual cumpliese un papel fundamental para la
identificación de objetos de tal forma que se pudiese representar en un
gráfico, mediante este se planeó el manejo de imágenes redundantes.
Luego se utilizó la continuidad del movimiento en video y
entendimiento. Después se aplicó un algoritmo para realizar las
coincidencias basadas en la entrada de video Y demostrar que los
resultados obtenidos utilizando una secuencia de vídeo Son mucho más
robustos que el uso de una sola imagen. Este enfoque es nuevo debido
a que no se requiere ningún conocimiento de Calibración de la cámara
o punto de vista mientras genero el modelo.[5]
En la Universidad de Carnegie Mellon se realizó un trabajo el cual
proponía un enfoque probabilístico para Modelización y
reconocimiento de categorías de objetos que combina dos tipos de
evidencia visual complementaria, visual Contenidos y enlaces
interconectados entre las imágenes. De esta manera, el enfoque no sólo
incrementa el modelado y reconocimiento. También ofrece posibles
soluciones a varios problemas incluyendo el modelado de la
información geométrica, La complejidad computacional y la
ambigüedad inherente De palabras visuales. Este puede ser
incorporado en cualquier modelo generativo, pero aquí consideramos
dos Modelos, pLSA y LDA. Los resultados experimentales muestran
modelos de temas actualizados mediante la adición de términos de los
modelos pLSA y LDA estándar [6].
En la universidad Del Cairo, Egipto se desarrolló una plataforma
robótica para los sistemas de monitoreo y vigilancia aplicando el uso
de visión artificial a través de Opencv. Se tuvo muy en cuenta que estos
sistemas son considerados como uno de los más confiables y
comúnmente utilizados de los sistemas de seguridad.
Estos dependen en gran medida de la interacción humana para una
óptima operación. En un entorno en el que un alto nivel de seguridad
es necesario, los problemas causados por errores h umanos no son
aceptables. Eliminando la interacción humana de la vigilancia
automática en los sistemas de seguridad, se pudo crear un sistema de
seguridad más fiable para tasa de detección y prevención de delitos.
Esto sólo pudo lograrse mediante la introducción de capacidades de
visión por ordenador a estos sistemas. Estos sistemas autónomos deben
ser capaces de reunir Información de los fotogramas capturados por el
circuito cerrado Televisión (CCTV) y las utilizan para diferentes
aplicaciones Tales como reconocimiento de placas de matrícula de
vehículos, reconocimiento facial, etc. [7].
En la universidad nova de Lisboa, se desarrolló un sistema móvil en
tiempo real para reconocimiento de objetos. el sistema se ejecuta
localmente en un dispositivo móvil. dispositivo. se diferencia de los
enfoques más comunes para sistemas móviles, ya que no necesita
conectarse a un servidor para procesar imágenes y clasificación. los
métodos propuestos son eficientes y fiables, lo que significa que dan
una rápida el usuario móvil y, al mismo tiempo, tienen razonables de
detección/ identificación. la ráp ida retroalimentación promueve una
mejor interacción y cooperación entre el usuario y la aplicación móvil,
por consiguiente, también puede mejorar la calidad de la detección/
identificación. [8]
En la universidad de Augsburgo, se propuso un método altamente
efectivo y escalable, un framework para el reconocimiento de logotipos
en imágenes. En el centro de este método establece un método para
codificar e indexar la distribución espacial relativa de las características
locales detectadas en el logotipo imágenes. basado en el análisis de las
características locales y composición de estructuras espaciales básicas,
como triángulos se puede derivar una representación cuantificada de
las regiones en los logotipos y minimizar las detecciones de falsos
positivos. además, se propuso un índice en cascada para
reconocimiento multi-clase de logos. para la evaluación de nuestro
sistema se construyó y lanzó un punto de referencia de reconocimiento
de logotipo que consiste en imágenes d e logotipo etiquetadas
manualmente, complementadas con imágenes, todas publicadas en
Flickr. el conjunto de datos consta de un entrenamiento, validación y
prueba con 32 clases de logotipo. [9]
En la universidad de Tokio, se aplicaron una serie de técnicas de
procesamiento d e Imagen, audio y análisis de texto para el
reconocimiento de objetos en un programa en vivo. Para entender los
enunciados en videos de acuerdo con la Escena, fue esencial reconocer
el objeto aparece en el Video. Primero un Tema de cada segmento de
video se identifica en base a HMMs Para obtener buenos ejemplos para
la adquisición del modelo de objeto. Después de eso, las imágenes en
primer plano se extraen de secuencias de imágenes, Y una región de
atención en la imagen en primer plano es determinado. Entonces, una
palabra importante se extrae como una Palabra clave de enunciados
alrededor de la imagen de primer plano, y Se hace correspo nder a la
imagen de primer plano. Recolectando un Conjunto de imagen de
primer plano y palabra clave de una gran cantidad de Videos, modelos
de objeto se adquieren. Después de adquirir el objeto Modelos, el
reconocimiento de objetos se realiza en base Mod elos d e objetos
adquiridos e información lingüística. [10]
En la universidad central de Venezuela, se desarrolló un sistema
reconocedor-seguidor mediante el cual se pudiese reconocer los
objetos mediante 2 redes neuronales las cuales fueron utilizadas para
el procesamiento de imágenes. El uso d e estas fue tan importante
porque funcionan mediante ejemplos y el usuario no necesita conocer
los fenómenos subyacentes, también permiten ejecutar procesamiento
paralelo. La primera red se especializa en seguir un objeto seleccionado
y una vez entrenada participa en un sistema de control a lazo cerrado
en el cual las imágenes recibidas controlan directamente el movimiento
del ojo. Este arreglo reproduce artificialmente un fenómeno similar al
micro temblor ocular (OMT, por sus siglas en inglés) característico en
los ojos de los mamíferos. Las señales OMT son guardadas en
elementos de memoria de corta duración y se convierten en la entrada
de una segunda red neural que converge en una única “célula
concepto”, cuya actividad determina la presencia del objeto
seleccionado. [11]