Документация для версии Axxon Next 4.5.0 - 4.5.10. Документация на другие версии также доступна.

Предыдущая страница Особенности настройки детектора перехода из области в область  Настройка детекторов анализа ситуации на базе сервисного детектора движения Следующая страница

Для настройки детекторов анализа ситуации на базе нейротрекера необходимо:

  1. Выбрать объект Нейротрекер. 

  2. Если видеокамера поддерживает многопоточность, выбрать поток, на котором необходимо осуществлять детектирование (1). 
  3. По умолчанию включена запись метаданных видеопотока в базу данных. Для отключения выбрать из списка Запись траекторий объектов значение Нет (2).
  4. В поле Количество обрабатываемых кадров в сек задать количество кадров в секунду, которые будет обрабатывать нейросеть (3). Чем выше значение, тем точнее трекинг, но выше нагрузка на процессор.

    Внимание!

    Рекомендуются значение не менее 6 кадров в секунду. Для быстро перемещающихся объектов (бегущий человек, машина) частота кадров в секунду должна быть не менее 12 (см. Примеры настройки нейротрекера для решения типовых задач).

  5. Задать минимальное количество срабатываний нейротрекера для отображения трека объекта (4). Чем больше значение данного параметра, тем дольше пройдет времени от обнаружения объекта до отображения его трека. При этом, низкое значение данного параметра может привести к ложным срабатываниям.
  6. Для отсеивания части треков можно использовать нейрофильтр. Например, нейротрекер детектирует все грузовые автомобили, а нейрофильтр оставляет только те треки, которые соответствуют автомобилям с открытыми дверями кузова. Для настройки нейрофильтра необходимо:
    1. для использования нейрофильтра выбрать Да в соответствующем поле (5);
    2. в поле Режим работы нейрофильтра выбрать процессор для работы нейросети (10);
    3. в поле Файл нейрофильтра выбрать файл нейросети (13).
  7. Для отсеивания ложных срабатываний детекторов при использовании fish-eye камеры в поле Положение камеры выбрать правильное расположение устройства (6). Для всех других устройств данный параметр не актуален.
  8. Установить порог распознавания объектов в процентах (7). Если вероятность распознавания объекта меньше заданного, то эти данные не будут учитываться. Чем больше значение, тем выше качество распознавания, но некоторые сработки могут не учитываться.
  9. Выбрать процессор для декодирования видео (8). При выборе GPU приоритет отдается дискретной видеокарте (декодирование на чипах NVidia NVDEC). Если подходящего графического процессора нет, то декодирование будет осуществляться с помощью технологии Intel Quick Sync Video. В противном случае декодирование будет осуществляться на CPU (см. Общие сведения о настройке детекторов).
  10. В поле Режим работы нейротрекера выбрать процессор для работы нейросети - центральный, один из графических или один из процессоров Intel (9, см. Требования к аппаратной платформе для работы нейроаналитики, Общие сведения о настройке детекторов). 

    Внимание!

    Рекомендуется использовать графический процессор.

    Запуск работы алгоритма на NVIDIA GPU после применения настроек может занимать несколько минут. Для ускорения последующих запусков можно использовать функцию кэширования (см. Настройка ускорения запуска нейроаналитики на GPU).

    При работе нейротрекера на GPU в окне видеонаблюдения может наблюдаться отставание треков от объектов. В этом случае рекомендуется в настройках видеокамеры установить размер буфера равным 1000 миллисекунд (см. Объект Видеокамера).

  11. В поле Тип объекта выбрать объект распознавания (11) или в поле Файл нейросети выбрать файл нейросети (12).

    Внимание!

    Для подготовки нейросети необходимо обратиться в компанию ITV (см. Требования ко сбору данных для обучения нейросетей).

    Использование подготовленной нейросети для конкретной сцены позволяет детектировать объекты только определенного типа (например, человек, велосипедист, мотоциклист и т.д.).

    Если файл нейросети не задан, будет использоваться файл по умолчанию, который выбирается в зависимости от выбранного типа объекта (11) и выбранного процессора для работы нейросети (8).

    Примечание

    Для корректной работы нейросети в ОС Linux соответствующий файл должен располагаться в директории /opt/AxxonSoft/DetectorPack/NeuroSDK.

  12. В поле Время удержания трека ввести время в секундах, после истечения которого трек объекта считается потерянным (14). Данный параметр может быть актуален в ситуациях, когда один объект в кадре временно перекрывает другой. Например, когда более крупная машина полностью перекрывает более мелкую. 
  13. Если не требуется детектировать подвижные объекты, выбрать Да в поле Скрыть движущиеся объекты (15). Объект считается неподвижным, если за все время существования его трека он не сместился более чем на 10% от своей ширины или высоты.
  14. Если не требуется детектировать неподвижные объекты, выбрать Да в поле Скрыть неподвижные объекты (16). При обнаружении подвижные объектов использование данного параметра позволяет уменьшить количество ложных срабатываний. Объект считается неподвижным, если за все время существования его трека он не сместился более чем на 10% от своей ширины или высоты.

    Внимание!

    Если неподвижный объект начнет движение, детектор выдаст на него сработку и объект больше не будет считаться неподвижным.

  15. По умолчанию весь кадр является зоной детектирования. Если необходимо ограничить зону анализа, в окне предварительного просмотра задать одну или несколько областей, в которых необходимо выполнять анализ.

    Примечание

    Задание областей анализа выполняется по аналогии с базовым трекером (см. Задание общих зон анализа ситуации). Однако, для нейротрекера в отличие от базового задаются именно зоны анализа, а не зоны игнорирования.

  16. Нажать кнопку Применить.
  17. Далее следует на базе нейротрекера создать и настроить необходимые детекторы. Их настройка будет осуществляться также, как и для базового трекера (см. Настройка детекторов анализа ситуации на базе трекера объектов).

    Внимание!

    Для сработки детектора Движение в области под нейротрекером объект должен сместиться в кадре как минимум на 25% от своей ширины или высоты.

    Внимание!

    Детектор оставленных объектов работает только с базовым трекером объектов.