Ученые из Южно-Уральского государственного университета представили инновационный метод локализации объектов с помощью панорамной камеры и лазерной линии, основанный на монокулярном всенаправленном зрении и структурированных световых полосах. Результаты исследования опубликованы в журнале Ain Shams Engineering Journal.
С помощью этого метода роботы способны точно определять положение цели в условиях сложных оптических помех, например, при наличии бликов на поверхностях. Интеллектуальный алгоритм в режиме реального времени выделяет лазерную линию на объекте и преобразует её координаты в трехмерное положение цели.
Главное достижение разработки — способность алгоритма устойчиво работать в условиях, где традиционные методы терпят неудачу. Среди таких условий: темные и глянцевые поверхности, красные объекты (на которых лазерная линия может «сливаться» с фоном), зеркальные блики и даже частичное перекрытие лазерной полосы.
Алгоритм действует как «реставратор» лазерного следа: специальная многопороговая обработка в цветовом пространстве отсеивает помехи, морфологические операции «лечат» разрывы линии, а кластеризация и построение минимального остовного дерева восстанавливают непрерывность полосы даже при частичных перекрытиях.
Эффективность метода подтверждена экспериментально на реальной роботизированной установке с манипулятором SCARA.
Новая технология носит импортозамещающий характер, стоимость нового решения значительно ниже промышленных лидаров.
Авторы разработки планируют оптимизировать скорость распознавания объектов нейросетью с помощью использования более мощных графических ускорителей и компактных нейросетевых архитектур.
Разработка научного коллектива под руководством д.т.н., профессора Максима Григорьева и доцента кафедры «Электропривод, мехатроника и электромеханика», PhD Ивана Холодилина органично вписывается в мировой тренд отказа от дорогостоящих датчиков в пользу «умного зрения» и активных методов подсветки, открывая путь к созданию более доступных и компактных робототехнических систем для промышленности.
Фото: © ПАО «Россети»
Источник: ЮУрГУ