Artículos

Determinación de la densidad vehicular en ciudades intermedias por medio de visión por computador

Determination of vehicle density in intermediate cities through computer vision

Daniel-Alejandro Febres-Loaiza
Universidad Internacional del Ecuador, Ecuador
Luis-Roberto Jácome-Galarza
Universidad Internacional del Ecuador, Ecuador
Wilson-Eduardo Jaramillo-Sangurima
Universidad Internacional del Ecuador, Ecuador
Silvia-Alexandra Jaramillo-Luzuriaga
Universidad Internacional del Ecuador, Ecuador

Revista Tecnológica ESPOL - RTE

Escuela Superior Politécnica del Litoral, Ecuador

ISSN: 0257-1749

ISSN-e: 1390-3659

Periodicidad: Semestral

vol. 36, núm. 1, Esp., 2024

rte@espol.edu.ec

Recepción: 15 Julio 2024

Aprobación: 02 Octubre 2024



DOI: https://doi.org/10.37815/rte.v36nE1.1216

Resumen: El presente trabajo de investigación tiene por objetivo calcular mediante la utilización de visión por computador la densidad vehicular de las ciudades. Para llevar a cabo el estudio, se procedió a capturar vídeos del tráfico vehicular en 8 intersecciones de la ciudad de Loja por medio de un dron y una cámara de alta resolución. Posteriormente se utilizó el lenguaje python y la librería YOLOv8 para realizar el conteo de vehículos de diferentes categorías como son vehículos livianos, pesados y motos. Por medio de fórmulas matemáticas utilizadas en ingeniería de tráfico se obtuvieron los valores de la densidad vehicular, tasa de flujo vehicular y espaciamiento promedio. Como resultados tenemos que el modelo de aprendizaje automático utilizando YOLOv8 tiene una precisión micro del 90% en la detección y clasificación de vehículos, y gracias a su uso se identificó la vía de mayor densidad vehicular. Las aplicaciones prácticas del presente trabajo podrían mejorar el flujo vehicular y ayudar a la toma de decisiones a los organismos competentes relacionados con la gestión del tránsito.

Palabras clave: Flujo vehicular, simulación, conteo vehicular, visión por computadora, visión artificial.

Abstract: The objective of this research work is to calculate the vehicle density of cities through the use of computer vision. To carry out the study, we captured videos of vehicular traffic at 8 intersections in the city of Loja using a drone and a high-resolution camera. Subsequently, we used the Python language and the YOLOv8 library to count vehicles of different categories, such as small vehicles, trucks, and motorcycles. Through mathematical formulas used in transportation engineering, the values ​​of vehicle density, vehicle flow rate, and average spacing were obtained. As results, we have that the machine learning model using YOLOv8 has an accuracy of 90% in detecting and classifying vehicles, and thanks to its use, the road with the highest vehicle density was identified. The practical applications of this work could improve vehicle flow and help competent organizations related to traffic management make decisions.

Keywords: Vehicle flow, simulation, vehicle counting, computer vision, computer vision, machine vision.

Introducción

La congestión de tráfico vehicular es uno de los problemas que más afectan a las ciudades, puesto que se produce mayor contaminación ambiental, aumentan los costos de transporte de personas y productos, y en general se disminuye la calidad de vida de sus habitantes. Así mismo, con el rápido crecimiento de las ciudades, el desafío es cada vez mayor.

Por su parte, Cal y Mayor (2018) indican que la ingeniería de tránsito concierne a la vialidad y por ende a la movilidad de los vehículos como también de peatones. Por medio de la aplicación de los conceptos de ingeniería de tránsito es factible disminuir el problema de la congestión vehicular mediante el análisis y planificación del tránsito.

Dentro de la ingeniería de tránsito, Cal y Mayor (2018) identifica además 3 variables principales que caracterizan el tránsito vehicular en cualquier intersección: el flujo vehicular (número de vehículos que pasan por un punto dado en un tiempo determinado), la velocidad promedio de los vehículos, y la densidad vehicular (cantidad de vehículos presentes en una vía por unidad de longitud).

La implementación de los conceptos de ingeniería de tránsito en la planificación de las ciudades tendría un impacto significativo en la disminución de los problemas provocados por la congestión vehicular, sin embargo, su utilización no es sencilla debido a que previamente es necesario realizar el conteo de vehículos por las vías del área en estudio y este procedimiento es tedioso y monótono al hacerlo de forma manual.

El objetivo del presente proyecto consiste en implementar un modelo de visión por computador capaz de realizar la detección, clasificación y conteo de vehículos que pasan por un área de estudio para aplicarlo en el cálculo de variables de ingeniería de tránsito como son tasa de flujo vehicular, densidad vehicular y espaciamiento promedio con la intención de disminuir considerablemente el tiempo y esfuerzo en la medición de mencionadas variables.

Rout et al. (2023) modificaron el algoritmo de YOLOv7 para mejorar la precisión en la detección, clasificación y conteo de vehículos con miras a administrar el tráfico, detectar infracciones de tránsito y disminuir accidentes.

Hasanvand et al. (2023) utilizaron técnicas de procesamiento de imágenes y algoritmos de aprendizaje automático como support vector machines, redes bayesianas, KNN y redes neuronales para clasificar vehículos con el objetivo de detectar infracciones de tránsito. Además, subrayan que el uso de sistemas de toma de decisiones automática podría disminuir enormemente la congestión vehicular.

A diferencia del uso de algoritmos de visión por computador, Ansariyar & Taherpour (2023) implementaron un sensor LIDAR para obtener datos en tiempo real como número de vehículos, peatones y ciclistas, la velocidad de los vehículos y los conflictos entre vehículos. Se pudieron identificar zonas críticas y las causas de conflictos como son la velocidad de los vehículos, el clima y el volumen de tráfico.

Kilic & Ozturk (2023) utilizaron la red VGG-16 como red neuronal convolucional base para detectar y contar automóviles en imágenes aéreas mediante mapas de calor de los automóviles. La implementación de aumento de datos de imágenes y normalización por lotes contribuyeron a mejorar el algoritmo.

Madhavi et al. (2023) proponen un método de detección automática de accidentes de tránsito en vídeos de vigilancia mediante el uso de redes neuronales convolucionales, obteniendo un 93% de precisión en la detección de accidentes.

Pillai (2023) estudia la gestión y control del tráfico, mediante el procesamiento del flujo vehicular, como el conteo y seguimiento de vehículos, utilizando YOLOv5. Resalta además que los métodos tradicionales fallan en condiciones complejas como cambios de iluminación y oclusiones parciales. Los resultados indican que YOLOv5 mejora la detección y conteo de vehículos en diversas condiciones.

Materiales y Métodos

El presente estudio es de tipo experimental cuantitativo, que consiste de los siguientes pasos: Recopilación de datos mediante la captura de vídeos del tráfico vehicular, preprocesamiento de los vídeos, construcción del modelo de visión artificial para conteo de vehículos, estimación de la precisión del modelo, cálculos de los parámetros de flujo vehicular e interpretación de los resultados. A continuación, detallamos cada uno de los pasos.

El proyecto inicia con la recopilación de datos, para lo cual se utilizó un vehículo aéreo no tripulado o dron (marca Dji, modelo Mavic Air) con una cámara de alta resolución, el mismo que fue utilizado para capturar vídeos en 8 intersecciones viales del casco céntrico de la ciudad de Loja, Ecuador.

En el proyecto de regeneración urbana de la ciudad de Loja se determinaron los límites del casco céntrico de la ciudad, lo que permitió que para el presente trabajo de investigación se tomen como referencia y punto de partida en la determinación de los puntos críticos de congestión vehicular (Figura 1).

Los límites están marcados en función de la intersección de calles y avenidas, tomando como referencia algunos puntos emblemáticos de la ciudad. El límite norte inicia en la intersección de la Av. Universitaria y Av. Emiliano Ortega (Puerta de la ciudad).

El límite sur desde el cruce de la Av. Emiliano Ortega (Centro de Rehabilitación Social), recorre la calle Catacocha hasta el cruce con la calle Olmedo; ahí tomará el sentido de la calle Olmedo hacia el Sur, hasta empatar con la calle Maximiliano Rodríguez. Recorre el sentido sur de la calle Maximiliano Rodríguez, hasta su unión con la Av. Eduardo Kingman; desde ahí recorre el trayecto de la Av. Eduardo Kingman, hasta la intersección con el redondel de la Av. Gobernación de Mainas. Recorre el trayecto de la avenida Av. Gobernación de Mainas, hasta el cruce con la calle 18 de Noviembre, donde finaliza el límite Sur 48.

El límite oeste inicia en el cruce de la Av. Gobernación de Mainas con la calle 18 de Noviembre. Siguiendo la dirección sur, se introduce en el desvío que conduce a la Unidad de tránsito y transporte terrestre del Municipio de Loja, hasta el cruce con la Av. Universitaria. Sigue el trayecto de la Av. Universitaria hasta llegar a la Puerta de la Ciudad.

El límite este inicia en la Puerta de la Ciudad; recorre la Av. Emiliano Ortega hasta el cruce con la calle Catacocha.

Casco céntrico de la ciudad de Loja y marcación de puntos críticos
de congestión vehicular
Figura 1
Casco céntrico de la ciudad de Loja y marcación de puntos críticos de congestión vehicular

Por otra parte, los vuelos realizados con el dron se debieron realizar considerando las disposiciones dadas por la Dirección General de Aviación Civil (DAC), que mediante la Resolución No. 251, expedida el 17 de septiembre de 2015, establece que la operación de estos equipos se mantendrá durante toda la duración del vuelo, a una distancia igual o mayor a 9 kilómetros de las proximidades de cualquier aeródromo o base aérea militar; que la altura máxima de vuelo no excederá los 122 metros sobre el terreno; que las horas de operación de los drones serán las comprendidas entre la salida y la puesta de sol y en condiciones de visibilidad absoluta.

Los vídeos del flujo vehicular fueron realizados en formato Mp4. Así mismo, se trató de utilizar el dron a una altura similar en cada vídeo, siendo esto sujeto a las características de cada intersección vial. Las características de cada vídeo son mostradas en la Tabla 1.

Tabla 1
Información de vídeos recolectados
CÓDIGO DE VIDEO TIPO INTERVALO DE TIEMPO (MIN) CÓDIGO DE INTERSECCIÓN (UBICACIÓN GPS) TELEMETRÍA
ALTURA (M) INCLINACIÓN DE CÁMARA (°)
D1 Aéreo 5 I1 10 10
D2 Aéreo 5 I1 10 10
D3 Aéreo 2 I1 10 10
D4 Aéreo 2 I1 10 10
D5 Aéreo 1 I1 10 10
D6 Aéreo 1 I1 10 10
D7 Aéreo 2 I2 15 25
D8 Aéreo 5 I2 20 20
D9 Aéreo 1 I2 20 20
D10 Aéreo 7 I3 30 45
D11 Aéreo 2 I3 30 45
D12 Aéreo 5 I3 30 45
D13 Aéreo 6 I3 30 45
D14 Aéreo 5 I4 45 45
D15 Aéreo 5 I5 40 30
D16 Aéreo 5 I4 45 30
D17 Aéreo 6 I4 20 25
D18 Aéreo 7 I6 15 10
D19 Aéreo 4 I7 15 20
D20 Aéreo 6 I7 20 10
C1 Superficie 9 I8 0 5
C2 Superficie 13 I8 0 5

Después de la captura de los vídeos, se procede al preprocesamiento de los mismos. Es necesario disminuir la resolución de mencionados vídeos con el objetivo de reducir la cantidad de trabajo del modelo de detección y con ello reducir el tiempo de procesamiento; se procede además a convertir los vídeos al formato de arreglos (arrays) de la librería NumPy, el mismo que es utilizado para trabajar con redes neuronales convolucionales.

En el siguiente paso, se procedió a construir un modelo de detección y clasificación de vehículos por medio del lenguaje Python y la librería YOLOv8.

Sohan et al. (2024) describen la arquitectura YOLOv8 (You Only Look Once, versión 8) como una red neuronal convolucional diseñada para la detección de objetos en tiempo real con la capacidad de distinguir 80 clases de objetos, entre los cuales tenemos automóviles, motocicletas, bicicletas, peatones o señales de tránsito.

YOLOv8 está conformado por a) Un “backbone” de redes convolucionales capaz de extraer características relevantes de la imagen de entrada, utiliza normalización por lotes, y funciones de activación no lineales; b) Una sección “neck” de la arquitectura cuya función principal es procesar las características extraídas de las imágenes a diferentes escalas mediante las técnicas de Feature Pyramid Network y Path Aggregation Network; c) Una sección “head” que se encarga de realizar las predicciones y calcular el nivel de confianza de las mismas, utiliza la técnica “anchor free” o sin anclas que no utiliza anclas predefinidas para las cajas delimitadoras, sino que predice directamente la posición y tamaño de las mismas, lo que consigue mejorar la precisión y velocidad del modelo. Después de que la "head" genera las predicciones, estas pasan por un proceso de postprocesamiento para eliminar las detecciones duplicadas y refinar las cajas delimitadoras finales; para ello se utiliza la técnica de Non-Maximum Suppression (Sohan et al. 2024).

En este estudio, se utilizó YOLOv8 para detectar y contar los vehículos de los vídeos capturados clasificándolos en vehículos livianos, vehículos pesados y motos, se resalta que se escogió mencionada librería por ser de código abierto al igual que el lenguaje de programación Python. Por otra parte, debido a la alta demanda de procesamiento por parte de la librería YOLOv8. Se utilizó un computador con procesador Core i5, memoria RAM de 16 GB, tarjeta de vídeo dedicada de 4 GB y chipset NVIDIA. La Figura 2 muestra la captura de un vídeo de tráfico vehicular en la ciudad de Loja, en el cual se detectan y clasifican vehículos.

Resultado del procesamiento de videos en YOLOv8
Figura 2
Resultado del procesamiento de videos en YOLOv8

Para determinar la validez de mencionado modelo se procedió a calcular la métrica de precisión (Ecuación 1). Para ello es necesario obtener la matriz de confusión en la que se comparan los resultados de la predicción con los resultados reales. La matriz de confusión se llena con los datos de: VP=Verdaderos Positivos, VN=Verdaderos Negativos, FP=Falsos Positivos y FN=Falsos Negativos, como se muestra en la Tabla 2.

Tabla 2
Matriz de confusión multiclase
Predicción
Matriz de confusión multiclase S1 S2 S3
Observación S1 VP FN FN
S2 FP VN VN
S3 FP VN VN

Después de obtener la matriz de confusión multiclase, mediante el uso de la librería NumPy, se procedió a obtener el valor de la precisión micro del modelo de clasificación y conteo mediante la Ecuación 2, la misma que es utilizada en problemas de clasificación multiclase.

[Ecuación 1]

[Ecuación 2]

A continuación, se procedió con la estimación de los parámetros del flujo vehicular. El cálculo de la densidad vehicular se realiza por cada uno de los videos procesados, aplicando las ecuaciones Cal y Mayor, respectivamente (2018). Esto es para calcular la tasa de flujo vehicular (Ecuación 3), la densidad vehicular (Ecuación 4) y el espaciamiento promedio (Ecuación 5). Cabe señalar que para los cálculos se ha tomado como velocidad media espacial a la velocidad máxima establecida para la circulación vehicular en el centro de la ciudad que es de 50 km/h.

[Ecuación 3]

Donde: q = Tasa de flujo expresada en veh/h

N = Número de vehículos

T = Intervalo en horas

[Ecuación 4]

Donde:

k = Densidad expresada en veh/km

q = Tasa de flujo

Ve = Velocidad promedio de viaje (50km/h)

[Ecuación 5]

Donde:

S = Espaciamiento promedio (m/veh)

k = Densidad

La Figura 3 muestra el esquema del procesamiento utilizado en el presente proyecto.

Esquema de procesamiento del modelo de visión por computador para
determinar parámetros de flujo vehicular
Figura 3
Esquema de procesamiento del modelo de visión por computador para determinar parámetros de flujo vehicular

Resultados y Discusión

Mediante el modelo de detección, clasificación y conteo de vehículos se procesaron los 22 videos de los cuales se extrajo la información del conteo de 3 clases detectadas y que se refiere a vehículos livianos, vehículos pesados y motos, como se muestra en la Tabla 3.

Tabla 3
Información de videos recolectados
CÓDIGO DE VIDEO INTERVALO DE TIEMPO (MIN) CLASES TOTAL DE VEHÍCULOS POR VIDEO
VEHÍCULOS LIVIANOS VEHÍCULOS PESADOS MOTOS
D1 5 9 1 1 11
D2 5 11 0 0 11
D3 2 10 0 1 11
D4 2 8 0 0 8
D5 1 6 0 2 8
D6 1 6 0 2 8
D7 2 26 2 3 31
D8 5 36 0 4 40
D9 1 20 0 3 23
D10 7 33 1 6 40
D11 2 11 0 0 11
D12 5 30 1 5 36
D13 6 55 1 4 60
D14 5 27 0 8 35
D15 5 46 2 11 59
D16 5 30 2 5 37
D17 6 20 0 1 21
D18 7 45 0 6 51
D19 4 20 0 2 22
D20 6 25 1 4 30
C1 9 31 0 7 38
C2 13 60 0 10 70
Total 565 11 85 661

De los datos obtenidos, el 85% de los objetos detectados corresponde a vehículos livianos, el 2% a vehículos pesados y el 13% a motocicletas. Aplicando las ecuaciones 3, 4, y 5, utilizadas para el cálculo de los parámetros del flujo vehicular, se obtuvieron los resultados mostrados en la Tabla 4.

Tabla 4
Tasa de flujo, densidad y espaciamiento promedio
CÓDIGO DE VIDEO DURACIÓN (MIN) TOTAL DE VEHÍCULOS TASA DE FLUJO VEHICULAR (VEH/H) DENSIDAD VEHICULAR (VEH/KM) ESPACIAMIENTO PROMEDIO (M/VEH)
D1 5 11 132 3 378,79
D2 5 11 132 3 378,79
D3 2 11 330 7 151,52
D4 2 8 240 5 208,33
D5 1 8 480 10 104,17
D6 1 8 480 10 104,17
D7 2 31 930 19 53,76
D8 5 40 480 10 104,17
D9 1 23 1380 28 36,23
D10 7 40 342,9 7 145,83
D11 2 11 330 7 151,52
D12 5 36 432 9 115,74
D13 6 60 600 12 83,33
D14 5 35 420 8 119,05
D15 5 59 708 14 70,62
D16 5 37 444 9 112,61
D17 6 21 210 4 238,10
D18 7 51 437,1 9 114,38
D19 4 22 330 7 151,52
D20 6 30 330 6 166,67
C1 9 38 253,3 5 197,37
C2 13 70 323,1 6 154,76

Una vez finalizado el cálculo de flujo vehicular, densidad y espaciamiento, se observa que en las intersecciones analizadas existe densidad vehicular muy baja, que no supera los 30 vehículos por kilómetro, por lo que el espaciamiento resulta ser bastante amplio.

Finalmente, se llegó a determinar la densidad vehicular en función de las intersecciones de las avenidas y calles que forman parte del presente estudio, y que está formado por 8 puntos críticos de análisis.

De la Tabla 5 se identifica que las intersecciones con mayor densidad vehicular son la Avenida Universitaria y la calle Mercadillo y las calles José Joaquín de Olmedo e Imbabura.

Tabla 5
Densidad vehicular por intersecciones
CÓDIGO DE INTERSECCIÓN INTERSECCIONES DE CALLES DENSIDAD VEHICULAR
I1 Bernardo Valdivieso y Alonso de Mercadillo 6
I2 Av. Universitaria y Alonso de Mercadillo 19
I3 Av. Emiliano Ortega y calle Juan José Peña 9
I4 Av. Emiliano Ortega e Imbabura 7
I5 José Joaquín de Olmedo e Imbabura 14
I6 Juan José Peña y Miguel Riofrío 9
I7 24 de Mayo y Miguel Riofrío 6
I8 Simón Bolívar y Alonso de Mercadillo 6

Los resultados obtenidos son satisfactorios puesto que la librería YOLOv8 alcanzó precisión micro del 90%. Sin embargo, existen desafíos en la implementación de este tipo de soluciones como son las condiciones de iluminación, clima y oclusión de vehículos, lo que afecta la precisión de los sistemas de conteo. La implementación de estos sistemas en entornos urbanos densos y con gran volumen de tráfico presentan condiciones desafiantes. Los modelos de aprendizaje profundo requieren recursos computacionales significativos para su entrenamiento y operación en tiempo real. Por otro lado, se puede destacar que la información obtenida por parte de un sistema automático de conteo de vehículos y estimación de los parámetros de flujo vehicular, es mucho más ágil que un método manual. Se destaca su alta confiabilidad, lo que representa un conocimiento relevante y oportuno para la gestión eficaz del tráfico en las ciudades. Destacamos también que la aplicación de la ingeniería de tránsito no es aplicada actualmente por parte de los organismos de planificación debido, entre otras cosas, a la dificultad de obtener los datos del conteo de vehículos y/o peatones, por lo que la aplicación y difusión de modelos de visión por computador representa una oportunidad para mejorar la gestión del tráfico.

En cuanto a las limitaciones del proyecto, mencionamos que el presente estudio fue realizado en la ciudad de Loja, que es considerada una ciudad intermedia, y que para su implementación en ciudades de mayor tamaño se deberían considerar más parámetros como la sectorización, transporte multimodal, horas pico, feriados o regulaciones por parte de los organismos de gestión de tránsito.

Como trabajos futuros, se tiene la aplicación de modelos de visión por computador para detectar otro tipo de objetos como peatones, bicicletas, señales de tránsito y, así mismo, la implementación del modelo en una aplicación web para procesar vídeos de tráfico en tiempo real.

Conclusiones

La visión por computador aplicada a la clasificación y conteo de vehículos tiene un enorme potencial para transformar la gestión del tráfico y la planificación urbana. Con avances continuos en la tecnología es posible desarrollar sistemas más precisos, robustos y eficientes. En el presente proyecto se determinó la densidad vehicular en 8 intersecciones del casco céntrico de la ciudad de Loja por medio de un modelo de detección, clasificación y conteo de vehículos con visión por computador. Nuestro modelo obtuvo 90% de precisión micro para la detección y clasificación de 3 tipos de vehículos, y con la utilización de ingeniería de tráfico se pudieron determinar de forma cuantitativa sectores críticos de congestión vehicular.

La utilización de visión por computador para el conteo de vehículos resulta ser un procedimiento mucho más barato y altamente confiable que usar métodos tradicionales o hacerlo manualmente. Este proceso reduce el número de personas para llevar a cabo el trabajo, lo que disminuye los costos de operación, y se reduce también el tiempo de obtención de resultados de manera significativa. Por su parte, la librería YOLOv8 de uso libre resulta ser una alternativa viable por su versatilidad y robustez en la detección de objetos de hasta 80 categorías.

Las aplicaciones del presente estudio son diversas, como la optimización de los ciclos de semáforos, toma de decisiones informadas sobre el redireccionamiento del tráfico, expansión de vías. Así mismo, con los datos sobre la demanda y el flujo vehicular, se puede ajustar la frecuencia y las rutas de los autobuses y otros medios de transporte público para satisfacer mejor las necesidades de los usuarios.

Finalmente, podemos concluir que el conteo de vehículos automatizado constituye una herramienta esencial para las ciudades modernas que buscan mejorar su infraestructura y calidad de vida.

Referencias

Ansariyar, A., & Taherpour, A. (2023). Statistical analysis of vehicle-vehicle conflicts with a LIDAR sensor in a signalized intersection. Advances in transportation studies, 60.

Alexandrova, S., Tatlock, Z., & Cakmak, M. (2015, May). RoboFlow: A flow-based visual programming language for mobile manipulation tasks. In 2015 IEEE International Conference on Robotics and Automation (ICRA) (pp. 5537-5544). IEEE.

Cal y Mayor, R., & Cárdenas, J. (2018). “Ingeniería de Tránsito”. Editorial Alfaomega. 9na. edición.

Chek, X. & Uttraphan, C. (2023). 3D Geometric Shape Recognition System using YOLO v8 Implemented on Raspberry Pi. Evolution in Electrical and Electronic Engineering, 4(2), 158-164.

Deepa, D., Sivasangari, A., Roonwal, R., & Nayan, R. (2023). Pothole Detection using Roboflow Convolutional Neural Networks. In 2023 7th International Conference on Intelligent Computing and Control Systems (ICICCS) (pp. 560-564). IEEE.

Dehghani, M., Gritsenko, A., Arnab, A., Minderer, M., & Tay, Y. (2022). Scenic: AJAX library for computer vision research and beyond. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 21393-21398).

Gao, G., Gao, J., Liu, Q., Wang, Q., & Wang, Y. (2020). Cnn-based density estimation and crowd counting: A survey. arXiv preprint arXiv:2003.12783.

Grumiaux, P. A., Kitić, S., Girin, L., & Guérin, A. (2022). A survey of sound source localization with deep learning methods. The Journal of the Acoustical Society of America, 152(1), 107-151.

Guo, M. H., Xu, T. X., Liu, J. J., Liu, Z. N., Jiang, P. T., Mu, T. J., ... & Hu, S. M. (2022). Attention mechanisms in computer vision: A survey. Computational visual media, 8(3), 331-368.

Hasanvand, M., Nooshyar, M., Moharamkhani, E., & Selyari, A. (2023). Machine learning methodology for identifying vehicles using image processing. In Artificial Intelligence and Applications (Vol. 1, No. 3, pp. 170-178).

Hassaballah, M., & Awad, A. I. (Eds.). (2020). Deep learning in computer vision: principles and applications. CRC Press.

Jocher, G., Stoken, A., Chaurasia, A., Borovec, J., Kwon, Y., Michael, K., ... & Thanh Minh, M. (2021). ultralytics/yolov5: v6. 0-YOLOv5n'Nano'models, Roboflow integration, TensorFlow export, OpenCV DNN support. Zenodo.

Kilic, E., & Ozturk, S. (2023). An accurate car counting in aerial images based on convolutional neural networks. Journal of Ambient Intelligence and Humanized Computing, 1-10.

Liu, Y., Sun, P., Wergeles, N., & Shang, Y. (2021). A survey and performance evaluation of deep learning methods for small object detection. Expert Systems with Applications, 172, 114602.

Madhavi, G., Bhavani, A., Reddy, Y., Kiran, A., Chitra, N., & Reddy, P. (2023). Traffic Congestion Detection from Surveillance Videos using Deep Learning. In 2023 International Conference on Computer, Electronics & Electrical Engineering & their Applications (IC2E3) (pp. 1-5). IEEE.

Pillai, A. (2023). Traffic Surveillance Systems through Advanced Detection, Tracking, and Classification Technique. International Journal of Sustainable Infrastructure for Cities and Societies, 8(9), 11-23.

Pineda-Perdomo, G. A., & Villatoro-Flores, H. F. (2023, December). Implementation of a Computer Vision System for Fault and Component Analysis of Computer PCBs. In 2023 IEEE International Conference on Machine Learning and Applied Network Technologies (ICMLANT) (pp. 1-6). IEEE.

Rouf, M., Wu, Q., Yu, X., Iwahori, Y., Wu, H., & Wang, A. (2023). Real-time vehicle detection, tracking and counting system based on YOLOv7. Embedded Selforganising Systems, 10(7), 4-8.

Sohan, M., Sai Ram, T., Reddy, R., & Venkata, C. (2024). A review on yolov8 and its advancements. In International Conference on Data Intelligence and Cognitive Informatics (pp. 529-545). Springer, Singapore.

Talebi, H., & Milanfar, P. (2021). Learning to resize images for computer vision tasks. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 497-506).

Wang, P., Li, P., & Chowdhury, F. R. (2022). Development of an adaptive traffic signal control framework for urban signalized interchanges based on infrastructure detectors and CAV technologies. Journal of Transportation Engineering, Part A: Systems, 148(4), 04022004.

Won, M. (2020). Intelligent traffic monitoring systems for vehicle classification: A survey. IEEE Access, 8, 73340-73358.

Yuan, X., Shi, J., & Gu, L. (2021). A review of deep learning methods for semantic segmentation of remote sensing imagery. Expert Systems with Applications, 169, 114417.

Zhang, J., Xiao, W., Coifman, B., & Mills, J. P. (2020). Vehicle tracking and speed estimation from roadside lidar. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 13, 5597-5608.

Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
HTML generado a partir de XML-JATS4R