Вступ. Технічні засоби організації дорожнього руху (ТЗОДР) — насамперед дорожні знаки та розмітка – визначають зрозумілість дорожньої обстановки і рівень безпеки руху. Традиційні інспекції залишаються «золотим стандартом», однак вони трудомісткі, витратні та нерегулярні, що призводить до збільшених часових інтервалів між погіршенням стану знаків і їхнім відновленням. Останні здобутки комп’ютерного зору та глибинного навчання дають змогу автоматизувати виявлення, класифікацію та оцінювання стану знаків на основі відео та фото даних, доповнених вимірюванням коефіцієнту світлоповернення [1 – 6].
Проблематика. Нині детектори на основі глибоких нейромереж демонструють високу точність на стандартних наборах даних, проте їхня робота у складних умовах (вицвітання, забруднення, вандалізм, сніг, туман, косі кути огляду) деградує; крім того, оцінювання стану потребує не лише класифікації «норма / пошкоджено», а кількісної оцінки (зміна кольоропередачі, контрасту, світлоповернення).
Мета. Систематизувати підходи до автоматизованої інспекції ТЗОДР, узагальнити їхні переваги й обмеження, порівняти ефективність типових конвеєрів та запропонувати гібридну архітектуру «edge-cloud» для реального впровадження з мінімізацією людських витрат.
Матеріали й методи. Розглянуто лінійку методів — від правил за кольором / формою та класичних ознак (HOG-SVM, SIFT-SVM) до одноетапних моделей виявлення об'єктів (YOLOv8, SSD), двоетапних моделей (Faster R‑CNN, Mask‑R‑CNN), багатозадачних та мультимодальних підходів із залученням глибинних карт (LiDAR/стерео). Для кількісної оцінки стану описано перехід до колірного простору CIELAB після сіро‑світового або Shades‑of‑Grey балансування, використання фізично обґрунтованих мереж для оцінювання світлоповернення та порівняльні метрики (mAP для розпізнавання, RMSE для регресії стану, FPS на Jetson‑NX) [7 – 9].
Результати. За узагальненими даними, одно‑ та двоетапні глибокі детектори забезпечують mAP на рівні 0,95 – 0,97, а багатозадачні/мультимодальні конвеєри – найменшу помилку оцінки стану (RMSE 0,05 – 0,08). На edge‑пристроях можливо досягти 18–35 fps (залежно від архітектури), що уможливлює обробку на місці з подальшим вивантаженням кадрів для важкої сегментації у хмарі. Запропонована архітектура поєднує легкий детектор YOLOv8‑Nano (~28 fps) на борту та хмарні модулі для сегментації й фотометричного аналізу; контрастивне попереднє навчання на 20 000 неанотованих фрагментах зменшує потребу в розмітці приблизно на 60 %, а дешевий твердотільний LiDAR покращує точність класифікації пошкоджень і дає змогу вимірювати крен/нахил із точністю до ±2°.
Висновки. Автоматизована інспекція знаків суттєво підвищує частоту та об’єктивність оцінювання, скорочує витрати ручних обстежень і створює основу для керованого життєвого циклу активів. Подальші кроки: розширення відкритих наборів даних зі сценами деградації, удосконалення фізично обґрунтованих мереж для безпосередньої оцінки світлоповернення та довготривалі дослідження впливу на безпеку і економіку.