Штучний інтелект для автоматизованої ідентифікації та оцінювання стану технічних засобів організації дорожнього руху

Опубліковано:
Номер: Випуск 32(2025)
Розділ: Транспортні технології
Cторінковий інтервал статті: 328-337
Ключові слова: автомобільна дорога, глибинне навчання, інспекція дорожніх знаків, інтелектуальні транспортні системи, комп’ютерний зір, оцінювання стану, управління активами.
Як цитувати статтю: Смолянюк Р. В., Халін С. М. Штучний інтелект для автоматизованої ідентифікації та оцінювання стану технічних засобів організації дорожнього руху. Дороги і мости. Київ, 2025. Вип. 32. С. 328–337.
Як цитувати статтю (references): Roman Smolyanyuk, Serhii Khalin. Artificial intelligence for automated identification and condition assessment of traffic control devices. Dorogi і mosti [Roads and bridges]. Kyiv, 2025. Issue 32. P. 328–337 [in Ukrainian].

Автори

Харківський національний автомобільно-дорожній університет (ХНАДУ), м. Харків, Україна
https://orcid.org/0000-0001-7087-7834
Харківський національний автомобільно-дорожній університет (ХНАДУ), м. Харків, Україна
https://orcid.org/0009-0009-6061-8498

Анотація

Вступ. Технічні засоби організації дорожнього руху (ТЗОДР) — насамперед дорожні знаки та розмітка – визначають зрозумілість дорожньої обстановки і рівень безпеки руху. Традиційні інспекції залишаються «золотим стандартом», однак вони трудомісткі, витратні та нерегулярні, що призводить до збільшених часових інтервалів між погіршенням стану знаків і їхнім відновленням. Останні здобутки комп’ютерного зору та глибинного навчання дають змогу автоматизувати виявлення, класифікацію та оцінювання стану знаків на основі відео та фото даних, доповнених вимірюванням коефіцієнту світлоповернення [1 – 6].

Проблематика. Нині детектори на основі глибоких нейромереж демонструють високу точність на стандартних наборах даних, проте їхня робота у складних умовах (вицвітання, забруднення, вандалізм, сніг, туман, косі кути огляду) деградує; крім того, оцінювання стану потребує не лише класифікації «норма / пошкоджено», а кількісної оцінки (зміна кольоропередачі, контрасту, світлоповернення).

Мета. Систематизувати підходи до автоматизованої інспекції ТЗОДР, узагальнити їхні переваги й обмеження, порівняти ефективність типових конвеєрів та запропонувати гібридну архітектуру «edge-cloud» для реального впровадження з мінімізацією людських витрат.

Матеріали й методи. Розглянуто лінійку методів — від правил за кольором / формою та класичних ознак (HOG-SVM, SIFT-SVM) до одноетапних моделей виявлення об'єктів (YOLOv8, SSD), двоетапних моделей (Faster R‑CNN, Mask‑R‑CNN), багатозадачних та мультимодальних підходів із залученням глибинних карт (LiDAR/стерео). Для кількісної оцінки стану описано перехід до колірного простору CIELAB після сіро‑світового або Shades‑of‑Grey балансування, використання фізично обґрунтованих мереж для оцінювання світлоповернення та порівняльні метрики (mAP для розпізнавання, RMSE для регресії стану, FPS на Jetson‑NX) [7 – 9].

Результати. За узагальненими даними, одно‑ та двоетапні глибокі детектори забезпечують mAP на рівні 0,95 – 0,97, а багатозадачні/мультимодальні конвеєри – найменшу помилку оцінки стану (RMSE 0,05 – 0,08). На edge‑пристроях можливо досягти 18–35 fps (залежно від архітектури), що уможливлює обробку на місці з подальшим вивантаженням кадрів для важкої сегментації у хмарі. Запропонована архітектура поєднує легкий детектор YOLOv8‑Nano (~28 fps) на борту та хмарні модулі для сегментації й фотометричного аналізу; контрастивне попереднє навчання на 20 000 неанотованих фрагментах зменшує потребу в розмітці приблизно на 60 %, а дешевий твердотільний LiDAR покращує точність класифікації пошкоджень і дає змогу вимірювати крен/нахил із точністю до ±2°.

Висновки. Автоматизована інспекція знаків суттєво підвищує частоту та об’єктивність оцінювання, скорочує витрати ручних обстежень і створює основу для керованого життєвого циклу активів. Подальші кроки: розширення відкритих наборів даних зі сценами деградації, удосконалення фізично обґрунтованих мереж для безпосередньої оцінки світлоповернення та довготривалі дослідження впливу на безпеку і економіку.

Посилання

  1. FHWA. Sign Retroreflectivity – Definitions and Units (R_A, cd/lux/м²). URL: https://highways.dot.gov/safety/other/visibility/workshops-nighttime-visibility-traffic-signs-summary-workshop-findings-7  (дата звернення: 08.10.2025).
  2. Khalilikhah M., та ін. Using Stationary Image-Based Method for Evaluation of Traffic Sign Condition. Case Studies in Transport Policy, 2016. URL: https://www.sciencedirect.com/science/article/pii/S2046043016300429 (дата звернення: 08.09.2025).
  3. Balali V., at all Image-Based Remote Measurement of Retro-Reflectivity of Traffic Signs (Daytime HDR → Nighttime). Mineta Transportation Institute Report 1878, 2021. URL: https://transweb.sjsu.edu/ sites/default/files/1878-Balili-Remote-Measurement-Road-Reflectivity.pdf  (дата звернення: 08.09.2025).
  4. Oregon DOT (ODOT). Retroreflective Signs — Final Report. 2018. URL: https://www.oregon.gov/odot/Programs/ResearchDocuments/SPR799Lidar RetroFinalReport.pdf  (дата звернення: 08.09.2025).
  5. Maerz N.H., at all Automated Mobile Highway Sign Visibility Measurement Using Nighttime Video. TRB, 2002. URL: https://www.mst.edu/~norbert/pdf/ trb02_maerz_sign.pdf (дата звернення: 08.09.2025).
  6. Cai H.Y., Li L.J. Measuring Light and Geometry Data of Roadway Environments using HDR Photogrammetry. J. Transportation Technologies, 2012. URL: https://scispace.com/pdf/measuring-light-and-geometry-data-of-roadway-environments-1axhsejfvc.pdf  (дата звернення: 08.10.2025).
  7. Finlayson G.D., Trezzi E. Shades of Gray and Colour Constancy. IS&T Color Imaging Conf., 2004. URL: https://library.imaging.org/admin/apis/public/api/ist/website/ downloadArticle/cic/12/1/art00008 (дата звернення: 08.09.2025).
  8. van de Weijer J., Gevers T., Gijsenij A. Grey-Edge Hypothesis and Color Constancy. Tech. Report CR-2542, INRIA/LEAR, 2007. URL: https://lear.inrialpes.fr/people/ vandeweijer/papers/cr2542.pdf (дата звернення: 08.09.2025).
  9. Sharma G., Wu W., Dalal E.N. The CIEDE2000 color-difference formula: Implementation notes… Color Research & Application, 2005, 30(1):21–30. DOI: https://doi.org/10.1002/col.20070. URL: https://onlinelibrary.wiley.com/ doi/10.1002/col.20070 (дата звернення: 08.09.2025).
  10. Державне агентство відновлення та розвитку інфраструктури України. Звіт про виконання паспорта бюджетної програми на 2023 рік (КПКВК 3111020) [Електронний ресурс]. Київ, 2024. URL: https://restoration.gov.ua/4489/ finansovo-ekonomichna_diialnist/59452/59540.pdf  (дата звернення: 08.09.2025).
  11. Lim X. R., Lee C. P., Lim K. M., Ong T. S., Alqahtani A., Ali M. Recent Advances in Traffic Sign Recognition: Approaches and Datasets. Sensors, 2023, 23(10):4674. DOI: https://doi.org/10.3390/s23104674. URL: https://www.mdpi.com/1424-8220/23/10/4674  (дата звернення: 08.09.2025).
  12. Chen H., Li X., Zhou W., та ін. Computational methods for automatic traffic signs detection and recognition: a review. Array, 2024. URL: https://www.sciencedirect.com/science/article/pii/S2590123024017961 (дата звернення: 08.09.2025).
  13. Houben S., Stallkamp J., Salmen J., Schlipsing M., Igel C. Detection of Traffic Signs in Real-World Images: The German Traffic Sign Detection Benchmark. Proc. IJCNN, 2013, 715–722. DOI: https://doi.org/10.1109/IJCNN.2013.6706807.
  14. Neuhold G., Ollmann T., Rota Bulo S., Kontschieder P. The Mapillary Vistas Dataset for Semantic Understanding of Street Scenes. ICCV, 2017. URL: https://openaccess.thecvf.com/content_ICCV_2017/papers/Neuhold_The_ Mapillary_ Vistas_ICCV_2017_paper.pdf  (дата звернення: 08.09.2025).
  15. Lin T.-Y., Dollár P., Girshick R., He K., Hariharan B., Belongie S. Feature Pyramid Networks for Object Detection. CVPR, 2017. URL: https://openaccess. thecvf.com/content_cvpr_2017/papers/Lin_Feature_Pyramid_ Networks_CVPR_2017_paper.pdf (дата звернення: 08.09.2025).
  16. He K., Gkioxari G., Dollár P., Girshick R. Mask R-CNN. arXiv:1703.06870, 2017. URL: https://arxiv.org/pdf/1703.06870  (дата звернення: 08.10.2025).
  17. Zhang H., Wu C., Zhang Z., та ін. ResNeSt: Split-Attention Networks. arXiv:2004.08955, 2020. URL: https://arxiv.org/abs/2004.08955  (дата звернення: 08.09.2025).
  18. Li S., Zhang H, Wang B., та ін. A Small Object Detection Algorithm for Traffic Signs Based on the Improved YOLOv7. Sensors, 2023. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC10459082/ (дата звернення: 08.09.2025).
  19. Huang X., та ін. Adaptive colour calibration for traffic‑sign inspection. IET Intelligent Transport Systems, 2023.
  20. Ronneberger O., Fischer P., Brox T. U‑Net: Convolutional Networks for Biomedical Image Segmentation. arXiv:1505.04597, 2015. URL: https://arxiv.org/abs/1505.04597 (дата звернення: 08.09.2025).
  21. ДСТУ 4100:2021. Знаки дорожні. Загальні технічні умови. Київ: ДП «УкрНДНЦ», 2021.
  22. Zhang F., та ін. Extracting Traffic Signage by Combining Point Clouds and Images. Remote Sensing, 2023. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC9964076/  (дата звернення: 08.09.2025).
  23. Ahn Y., Munjy R., Li Z. Traffic Sign Extraction from Mobile LiDAR Point Cloud. ROSA P / NTL, 2024. URL: https://rosap.ntl.bts.gov/view/dot/75693  (дата звернення: 08.09.2025).
  24. Cheng Y.-T., та ін. Image-Aided LiDAR Extraction, Classification, and Mapping. Remote Sensing, 2024. URL: https://www.mdpi.com/2072-4292/16/10/1668  (дата звернення: 08.09.2025).
  25. Müller S., та ін. Multimodal damage detection for road‑side assets. ITS World Congress, 2024.
  26. Tomita K., та ін. A Review of Infrared Thermography for Delamination Detection. Sensors, 2022. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC8779359/  (дата звернення: 08.09.2025).