Please use this identifier to cite or link to this item: http://repositorio.ugto.mx/handle/20.500.12059/980
Full metadata record
DC FieldValueLanguage
dc.rights.licensehttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.creatorJORGE FRANCISCO MADRIGAL DIAZes_MX
dc.date2013-03-13-
dc.date.accessioned2019-06-24T02:08:54Z-
dc.date.available2019-06-24T02:08:54Z-
dc.date.issued2013-03-13-
dc.identifier.urihttp://repositorio.ugto.mx/handle/20.500.12059/980-
dc.description.abstractEste artículo describe una implementación eficiente de un algoritmo de seguimiento de múltiples objetivos en múltiples vistas en secuencias de video vigilancia. Aprovecha las capacidades de las Unidades Centrales de Procesamiento (CPUs, por sus siglas en inglés) de múltiples núcleos y de las unidades de procesamiento gráfico, bajo el entorno de desarrollo de Arquitectura Unificada de Dispositivos de Cómputo (CUDA, por sus siglas en inglés). El principio de nuestro algoritmo es: 1) aplicar el seguimiento visual en cada secuencia de video sobre todas las personas a seguir con filtros de partículas independientes y 2) fusionar los resultados de seguimiento de todas las secuencias. Los filtros de partículas pertenecen a la categoría de filtros Bayesianos recursivos. Actualizan una representación Monte-Carlo de la distribución posterior sobre la posición y la velocidad de los objetivos. Para este fin, combinan un modelo probabilístico de movimiento, es decir un conocimiento a priori de como se mueven los objetivos (por ej. velocidad constante) y un modelo de verosimilitud asociado con las observaciones de los objetivos. En este primer nivel de procesamiento de las secuencias de video simples, la librería multihilo (TBB, por sus siglas en inglés) es utilizada para paralelizar el procesamiento de los filtros de partículas asociados a cada objetivo. Luego, al nivel superior, utilizamos Programación de Propósito General con Unidades de Procesamiento Gráficas (conocido por su acrónimo en inglés GPGPU) a través de CUDA con el fin de fusionar los datos del seguimiento de objetivos colectados entre las diferentes secuencias de video, al resolver el problema de asociación de datos. Los resultados del seguimiento son presentados en algunas bases de datos desafiantes.es_MX
dc.formatapplication/pdf-
dc.language.isoengen
dc.publisherUniversidad de Guanajuatoes_MX
dc.relationhttp://www.actauniversitaria.ugto.mx/index.php/acta/article/view/355-
dc.rightsinfo:eu-repo/semantics/openAccesses_MX
dc.sourceActa Universitaria. Multidisciplinary Scientific Journal. Vol 23 No 1 (2013)-
dc.sourceISSN: 2007-9621-
dc.titleColor and motion-based particle filter target tracking in a network of overlapping cameras with multi-threading and GPGPUen
dc.title.alternativeRastreo de objetivos por medio de filtros de partículas basados en color y movimiento en una red de cámaras con multi-hilo y GPGPUes_MX
dc.typeinfo:eu-repo/semantics/articlees_MX
dc.creator.idinfo:eu-repo/dai/mx/cvu/252111es_MX
dc.subject.ctiinfo:eu-repo/classification/cti/1es_MX
dc.subject.keywordsFiltro de partículases_MX
dc.subject.keywordsSeguimiento en vistas múltipleses_MX
dc.subject.keywordsGPGPU (Programación de Propósito General con Unidades de Procesamiento Gráfico)es_MX
dc.subject.keywordsMulti-hiloes_MX
dc.subject.keywordsParticle filteren
dc.subject.keywordsMulti-view trackingen
dc.subject.keywordsGPGPU (General-Purpose Programming on Graphical Processing Unitsen
dc.subject.keywordsMulti-threadingen
dc.type.versioninfo:eu-repo/semantics/publishedVersiones_MX
dc.creator.twoJEAN-BERNARD HAYET-
dc.creator.idtwoinfo:eu-repo/dai/mx/cvu/252133-
dc.description.abstractEnglishThis paper describes an efficient implementation of multiple-target multiple-view tracking in video-surveillance sequences. It takes advantage of the capabilities of multiple core Central Processing Units (CPUs) and of graphical processing units under the Compute Unifie Device Arquitecture (CUDA) framework. The principle of our algorithm is 1) in each video sequence, to perform tracking on all persons to track by independent particle filters and 2) to fuse the tracking results of all sequences. Particle filters belong to the category of recursive Bayesian filters. They update a Monte-Carlo representation of the posterior distribution over the target position and velocity. For this purpose, they combine a probabilistic motion model, i.e. prior knowledge about how targets move (e.g. constant velocity) and a likelihood model associated to the observations on targets. At this first level of single video sequences, the multi-threading library Threading Buildings Blocks (TBB) has been used to parallelize the processing of the per target independent particle filters. Afterwards at the higher level, we rely on General Purpose Programming on Graphical Processing Units (generally termed as GPGPU) through CUDA in order to fuse target-tracking data collected on multiple video sequences, by solving the data association problem. Tracking results are presented on various challenging tracking datasets.en
Appears in Collections:Revista Acta Universitaria

Files in This Item:
File Description SizeFormat 
355-Article Text-2616-3-10-20130320.pdf2.17 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.