Корпоративный блог

Встроенная видеоаналитика для детектирования и сопровождения объектов при помощи многомасштабных признаков


Дата публикации: 21.06.2010 16:03

Точность и ресурсоемкость алгоритма контролируются за счет частоты кадров (допускается частичный пропуск), разрешения входного кадра, глубины сегментирования, области детектирования, области сопровождения, радиуса поиска корреляционного метода и др. настройками.

4.  Аппаратнно-программная реализация

Видеоаналитическое обеспечение для детектирования и сопровождения объектов на базе алгоритма, приведенного в разделе 3.5, реализовано на двух аппаратных платформах: (1) x86 c использованием инструкций SSE2 для тестирования и (2) на сигнальном процессоре для встраивания непосредственно в камеру или видеоэнкодер (рис. 8). Отлажено серийное производство оборудования с разработанной аналитикой.

Алгоритмы работают на всех платформах в реальном масштабе времени на разрешении от 240 линий (стандартная четкость) до 1080 линий (высокая четкость).

Однокристальная реализация видеоаналитики на платформе Texas Instruments DaVinci TMS320DM6467. Размер платы, 80 х 55 х 14 мм, соответствует габаритам банковской карты

 

Рис. 8 Однокристальная реализация видеоаналитики на платформе Texas Instruments DaVinci TMS320DM6467. Размер платы, 80 х 55 х 14 мм, соответствует габаритам банковской карты.

5.  Методика и результаты испытаний

Внутренние испытания видеоаналитики проводилось на специальном стенде. Разработано аппаратно-программное обеспечение для автоматического тестирования видеокамер и видеосерверов со встроенной аналитикой.

В качестве исходных материалов для тестирования использовалось видео, записанное с реальной системы уличного видеонаблюдения. Набор видеосюжетов соответствует сценарию «стерильная зона» [10] и содержит:

  • 432 случая нарушения периметра (движение с различной скоростью, шагом, бегом, кувырком, ползком, в маскировочных халатах, с лестницей, в группе и по нестандартным траекториям);
  • около 500 ситуаций для потенциальных ложных срабатываний (резкое изменение освещённости, движение теней, дрожание камеры, мелкие млекопитающие, птицы, насекомые на объективе, плотный снег, дождь, туман).

Набор видеосюжетов состоит из фрагментов, записанных в различное время года, суток, а так же при различных погодных условиях. Суммарная продолжительность видео – около 38 часов. Источник – стандартная камера с сенсором CCD и аналоговым выходом PAL (720 x 576 x 25 кадров/с). Цифровой формат хранения видео MJPEG, поток данных избыточный – 40 Мбит/c – что максимально приблизило качество записанного и «живого» сигналов.

Табл. 1 Точность видеоаналитики по сценарию "стерильная зона"

 

Весовой параметр

Чувствительность Специфичность

Взвешенная средняя точность

Формула form16 form17 form18 form19
Оперативная тревога 0.65 1.00 1.00 1.00
Запись событий 75.00 1.00 1.00 1.00


Разметка видеосюжетов производилось независимой группой специалистов в области безопасности и видеонаблюдения. Эксперты отмечали на видео моменты появления и исчезновения нарушителя. Аналогично были отмечены ситуации для потенциальных ложных срабатываний, что позволило эффективно классифицировать ошибки в процессе отладки. Экспертная разметка или метаданные, были записаны для каждого видеосюжета в формате XML для гибкого программирования текстов при помощи скриптовых языков.

Настройки алгоритмов, за исключением, калибровки глубины и области интереса, для всех видеосюжетов были идентичны. Не допускалась «подгонка» параметров алгоритмов, таких как чувствительность, под конкретные видеосюжеты.

Видеодетектор должен был зарегистрировать нарушение в течение 10 секунд. Опозданием считалось пропуском нарушения, то есть ложноотрицательным срабатыванием (счетчик с).

Повторное детектирование после разрыва траектории считалось ложноположительным срабатыванием (счетчик b). Таким образом, настоящий тест  позволил оценить качество не только детектора, но и системы сопровождения.

Внутреннее тестирование показало идентичные результаты на платформе x86 и на сигнальном процессоре:

  • Число истинноположительных срабатываний
    (нет ошибки): a = 432
  • Число ложноположительный срабатываний
    (ошибка I рода): b = 0
  • Число ложноотрицательных срабатываний
    (ошибка II рода): с = 0

Точность по сценарию «стерильная зона» рассчитана по методике i-LIDS [10]. Расчет приведен в табл. 1. Значения взвешенной средней точности для ролей оперативная тревога и записи событий совпали и оказались идеальными:F1=1.000.

Видеоаналитика так же прошла внешнее независимое тестирование на другом наборе видеосюжетов, неизвестном разработчикам. Значения взвешенной средней точности для ролей оперативная тревога и записи событий составилиF1=0.997.

Значение точности, усредненное по результатам внутреннего и внешнего тестирования, составляет F1=0.999.

6.  Заключение

В статье представлен пример успешной адаптации нейробиологического механизма живого организма к интеллектуальным устройствам охранного телевидения. Разработаны и внедрены новые алгоритмы видеоанализа для детектирования уличного движения, сегментирования гибридного сопровождения.

Отличительной особенностью разработанных алгоритмов является использование многомасштабных признаков в виде пирамиды. Применение сразу нескольких пирамид признаков позволило одновременно отказаться от ресурсоемких алгоритмов многомодального вероятностного моделирования фона и повысить точность детектора.

Точность автоматического распознавания ситуаций на оборудовании серийного производства по сценарию «стернальная зона» составляет F1=1.000 по результатам внутреннего испытания и F1=0.997 по результатам независимого испытания на базе методики i-LIDS.

Перспективными направлениями для дальнейшей работы являются исследование композитных признаков и реализация на базе них более точной классификации объектов.

7.  Литература

[1]       Fredrik Nilsson. Intelligent network video. Understanding modern video surveillance systems, CRS Press, 2009

[2]       Птицын Н.В. Встроенная видеоаналитика: ближайшие перспективы, Системы безопасности, №2, 2010, с.80-83,http://www.secuteck.ru/imag/ss-2-2010/

[3]     Massimo Piccardi, Background subtraction techniques: a review, IEEE International Conference on Systems, Man and Cybernetics, 2004, p. 3099-3104, http://www.utsydney.cn/www-staffit/~massimo/BackgroundSubtractionReview-Piccardi.pdf

[4]     Bernd JähneDigital image processing, 5th revised and extended edition, Springer2002, http://books.google.com/books?id=qUeecNvfn0oC&lpg=PP1&dq=Bernd%20J%C3%A4hne.%20Digital%20image%20processing&pg=PP1#v=onepage&q&f=false

[5]     Maximilian Riesenhuber and Tomaso Poggio, Neural mechanisms of object recognition, Current opinion in neurobiology, 12, 2002, p. 162–168, http://cbcl.mit.edu/projects/cbcl/publications/ps/nb120204.pdf

[6]     Duane G. Albrecht, Wilson S. Geisler, Robert A. Frazor and Alison M. Crane, Visual cortex neurons of monkeys and cats: temporal dynamics of the contrast response function, Journal Neurophysiology, 88, 2002, p 888–913,http://jn.physiology.org/cgi/content/abstract/88/2/888

[7]     Parisa Darvish Zadeh Varcheie, Michael Sills-Lavoie and Guillaume-Alexandre Bilodeau, A Multiscale region-based motion detection and background, Sensors, №10, 2010, ISSN 1424-8220, http://www.mdpi.com/1424-8220/10/2/1041/pdf

[8]     Eitan Sharon, Meirav Galun, Dahlia Sharon, Ronen Basri and Achi Brandt, Hierarchy and adaptivity in segmenting visual scenes, Nature, Vol. 442, August 2006, p. 810-813, http://www.wisdom.weizmann.ac.il/~meirav/nature04977.pdf

[9]     PETS: Performance evaluation of tracking and surveillance, http://www.hitech-projects.com/euprojects/cantata/datasets_cantata/dataset.html

[10]  i-LIDS User guide imagery library for intelligent detection systems, Publication №28/08 v2.0, Home Office Scientific Development Branch, p. 25-34, http://scienceandresearch.homeoffice.gov.uk/hosdb/publications/cctv-publications/28-08_-_i-LIDS_User_Guide.pdf

Николай Птицын, к.т.н, ООО «Синезис», np@synesis.ru

ГрафиКон 2010