2,10,30

ZAPISZ SIĘ DO NEWSLETTERA SERWISU AUTOMATYKAONLINE.PL I POBIERZ DARMOWY NUMER "AUTOMATYKI"!

okładka Automatyka

*Wyrażam zgodę na przetwarzanie moich danych osobowych przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, w celach marketingowych, w tym marketingu bezpośredniego. Oświadczam, że zostałem poinformowany/a o prawie do wglądu, modyfikacji oraz usuwania moich danych osobowych.

*Wyrażam zgodę na przesyłanie mi informacji handlowej (w tym informacji handlowej partnerów portalu AutomatykaOnline.pl) za pomocą środków komunikacji elektronicznej w rozumieniu ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. 2002 nr 144, poz. 1204).

*Wyrażam zgodę na używanie przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, telekomunikacyjnych urządzeń końcowych, których jestem użytkownikiem, dla celów marketingu bezpośredniego zgodnie z art. 172 ustawy z dnia 16 lipca 2004 r. Prawo telekomunikacyjne (Dz.U. 2004 nr 171 poz. 1800).

*Akceptuję regulamin portalu AutomatykaOnline.pl oraz politykę prywatności serwisu.




ZAMKNIJ OKNO

Dziękujemy!

Prawie gotowe ... Musimy potwierdzić Twój adres email. Aby zakończyć proces subskrypcji, należy kliknąć link w mailu, który właśnie wysłaliśmy do Ciebie.

Po akceptacji zapisu na newsletter zostanie przesłany do Ciebie numer promocyjny miesięcznika Automatyka.

ZAMKNIJ OKNO

Dziękujemy za próbę ponownego zapisu na nasz newsletter.

Twój mail już jest w naszej bazie!

W przypadku pytań, prosimy o kontakt:
redakcja@automatykaonline.pl

ZAMKNIJ OKNO

This website uses cookies

W celu zapewnienia najwyższej jakości usług strona używa plików cookies. Szczegóły w polityce prywatności serwisu.

POL ENG
a a a
Search
  • Login
  • Sign up
Site map Site map
AutomatykaOnline.pl
  • Home page
  • News
  • Interviews
  • Application
  • Articles
  • Events
  • Companies
  • Products
Search
Automatyka 11/2025

Automation11/2025

In this issue:
  • Interview with Paweł Hoerner de Roithberger and Paweł Reszel, National Instruments
  • Cybersecurity of industrial control systems
  • Signaling columns
  • Magazine
  • Contact
  • Advertisement
Articles
  • Building Automation
  • Safety
  • Druk 3D
  • Electrics
  • Energy
  • Energia
  • Building Automation
  • Communication
  • Computers and HMI
  • Building Automation
  • Assembly and Conveyance
  • Software
  • Pneumatics
  • Measurements
  • Prawo i normy
  • Przemysł 4.0
  • Robotics
  • Control
  • Visions Systems
  • Drives
  • Technika łożyskowa
  • Technologia obróbki
  • Services
  • Building Automation
  • Others
Expand all
  • Home page
  • Articles
  • Others

Badanie przydatności kamery metrycznej IFM 03D201 w nawigacji robotów mobilnych

Jerzy Wojsz, Barbara Siemiątkowska print

Tuesday November 16 2010
Rys. 1. Kamera metryczna IFM·O3D201 [The metric camera IFM·O3D201]

Rys. 1. Kamera metryczna IFM·O3D201 [The metric camera IFM·O3D201]

Tweet

Celem pracy jest przedstawienie właściwości kamery metrycznej O3D201 i możliwość jej zastosowania w nawigacji robotów mobilnych. Określono parametry kamery: zasięg, dokładność oraz wpływ rodzaju powierzchni na osiągnięte wyniki. Opisano algorytm określenia kąta uchylenia drzwi na podstawie wskazań kamery. Przedstawiono wyniki przeprowadzonych eksperymentów.

 

The application of IFM 03D201 metric camera in mobile robot navigation

Abstract − The aim of the paper is to present the application of the metric camera O3D201 in mobile robot navigation. In the paper the following parameters of the camera are described: the range of measurements, the accuracy, the influence of an environment to obtained data. In the second part of the paper the algorithm which allows us to analyzed the data is presented. The algorithm determines the angle between the door and the wall.

 

W robotyce mobilnej coraz więcej uwagi poświęca się tworzeniu i programowaniu robotów usługowych. Aby możliwa była komunikacja w języku naturalnym, konieczna jest właściwa reprezentacja otoczenia. Opisywane w literaturze algorytmy budowy map dzielimy na:

  • metody metryczne
  • metody topologiczne.

Wśród metod metrycznych wyróżnić należy metody rastrowe [1, 2], w których otoczenie jest dzielone na regularne podobszary z przypisywanymi etykietami określającymi, czy dany obszar jest przejezdny, wolny od przeszkód. W reprezentacji wektorowej zwanej również mapą obiektów określane są równania określające krawędzie wykrytych przeszkód [2]. W przypadku map 2D najczęściej są to równania prostych.

W mapach topologicznych określane są relacje między wybranymi miejscami otoczenia. Mapy te są zapisywane w postaci grafu.

Kolejnym kryterium podziału metod reprezentacji otoczenia jest przestrzeń, w której środowisko jest reprezentowane. Do niedawna dominował opis środowiska w przestrzeni 2D, jest on jednak niewystarczający w sytuacji, gdy robot przemieszcza się na zewnątrz budynków lub w pomieszczeniach, gdzie przeszkody występują na różnej wysokości. Coraz częściej rozwijane są systemy, w których tworzone są mapy 3D. Najczęściej opisywane sposoby zapisu reprezentacji 3D to: chmura punktów [3], reprezentacja 2½ D [4], siatki trójkątów [5], woksele [6], mapy wielowarstwowe [7].

W przypadku komunikacji robot-człowiek żadna z wymienionych reprezentacji metrycznych nie jest wystarczająca, dlatego od kilku lat rozwijane są reprezentacje semantyczne [8], w których wykrytym przeszkodom przypisujemy etykiety. W większości tego typu algorytmów zakłada się, że robot przemieszcza się we wnętrzu pomieszczenia, w którym większość obiektów można opisywać za pomocą fragmentów płaszczyzn [9]. W pracach [11, 12] przedstawiono metodę określania położenia ścian, podłogi, sufitu, drzwi. W reprezentacji semantycznej fragmentom otoczenia przypisywane są etykiety określające:

  • nazwę obiektu, np. drzwi, lodówka
  • nazwę pomieszczenia, np. kuchnia, korytarz
  • rodzaj powierzchni, np. trawa, asfalt
  • stan obiektu, np. drzwi otwarte, uchylone, zamknięte.

Tworzenie reprezentacji semantycznej nie jest możliwe bez zastosowania właściwego układu sensorycznego. Dalmierze laserowe 2D i sonary dostarczają zbyt mało informacji, aby można było przeprowadzić znaczeniową analizę danych. Zadanie to może być zrealizowane za pomocą układów wizyjnych [10]. Obrazy z kamer są wrażliwe na zmieniające się warunki oświetlenia. Inną grupą układów skanowania 3D są odchylane w pionie dalmierze laserowe lub układy dalmierzy ustawione pod różnymi kątami [11]. Podstawową wadą pierwszej grupy urządzeń tego typu jest długi, trwający kilka sekund czas zbierania danych, wadą drugiej grupy jest niewielka liczba punktów pomiarowych. W przedstawionej pracy stosowano kamerę metryczną O3D201. Zaletą tego urządzenia jest niski koszt i krótki czas zbierania danych.

Praca składa się z dwóch części: w pierwszej omówiono właściwości kamery O3D201 i ocena jej przydatności w robotyce mobilnej. W kolejnej części przedstawiono wyniki eksperymentów analizy semantycznej otoczenia i określania kąta uchylenia drzwi. Na końcu zamieszczono podsumowanie i wnioski.

Kamera metryczna

Rys. 1. Kamera metryczna IFM·O3D201 [The metric camera IFM·O3D201]

Kamera metryczna O3D201 produkowana przez niemiecką firmę IFM jest urządzeniem opartym na technologii PMD. Zasada działania polega na pomiarze przesunięcia fazowego odbitej modulowanej fali świetlnej względem wysyłanej. W skład rodziny kamer IFM O3D2xx wchodzą dwa urządzenia o identycznych parametrach technicznych i metrologicznych oraz takich samych obudowach. Kamera O3D200 jest przeznaczona do stosowania na liniach przemysłowych, w związku z czym ma rozbudowane oprogramowanie pozwalające na realizację różnorodnych zadań inspekcji opartych na pomiarze wysokości czy objętości. Nie są jednak dostępne biblioteki programistyczne umożliwiające wykorzystanie kamery w innych zastosowaniach. Kamera O3D201 ma natomiast oprogramowanie służące jedynie do wizualizacji danych pomiarowych w czasie rzeczywistym, ponadto udostępnione są biblioteki pozwalające na sterowanie działaniem urządzenia i akwizycję danych pomiarowych z poziomu własnej aplikacji.

Opisywana kamera jest wyposażona w matrycę PMD o rozdzielczości 64×50 pikseli, choć większość źródeł pochodzących od producenta podaje wartość 64×48 pikseli. Rozdzielczość jest stosunkowo niska, co znacznie ogranicza możliwości zastosowania urządzenia w zadaniach klasyfikacji obiektów.

Rys. 2. Obraz krzesła : a) odległość 1 m, b) odległość 2 m [The image of a chair: a) a distance 1 m, b) a distance 2 m]

Kąty widzenia kamery wynoszą 40° w pionie i 30° w poziomie. Są to wartości zapewniające dużą uniwersalność. Dzięki temu kamera może sprawdzać się zarówno na liniach produkcyjnych, w zadaniach kontroli położenia lub wykrywania obecności oraz w pewnym stopniu kontroli wymiarów, jak też w robotyce mobilnej w zadaniach wykrywania przeszkód, czy budowania mapy otoczenia. Niska rozdzielczość matrycy wprowadza znaczne ograniczenie możliwości określenia cech geometrycznych przedmiotów. Rozdzielczość kątowa matrycy wynosi 0,625° w obydwu kierunkach. Oznacza to, że wymiary piksela przy odległości od obiektu równej 1 m wynoszą ok. 11×11 mm, podczas gdy minimalne wymiary, możliwego do poprawnego wykrycia przedmiotu, wynoszą 22×22 mm. Przy tak niskiej rozdzielczości próby implementacji algorytmów rozpoznawania twarzy, czy dowolnych obiektów o małych wymiarach lub identyfikowalnych na podstawie szczegółów (jak np. telefon, kubek) mają niewielkie szanse powodzenia. Możliwe jest natomiast wykorzystanie kamery w odniesieniu do obiektów o dużych wymiarach lub w przypadku, gdy zakładamy stałą, niewielką odległość kamery od obiektu. Może ona zatem służyć do określania położenia robota względem ścian pomieszczenia lub wykrywania zmian nawierzchni, po której się porusza. Na rys. 2 przedstawiono obraz krzesła obserwowanego z różnych odległości.

Dzięki modulacji częstotliwościowej urządzenie może w prosty sposób zignorować znaczną część zakłóceń pochodzących z obcych źródeł światła, ponieważ teoretycznie sygnały o innych częstotliwościach nie są brane pod uwagę podczas pomiaru. Zewnętrzne źródła promieniowania podczerwonego nie pozostają jednak całkowicie bez wpływu na odbiorniki znajdujące się w kamerze, zaszumiając odbierany obraz w stopniu zależnym od stosunku natężenia światła wysyłanego przez kamerę do natężenia światła pochodzącego od tła. Oczywiste jest zatem, że poziom szumów zależy między innymi od refleksyjności mierzonych przedmiotów i ich odległości od kamery. Obiekty czarne i odległe, odbijając niewielką część światła z oświetlacza, będą zatem powodowały znacznie większe zaszumienie niż białe, znajdujące się blisko urządzenia.

Istotnym źródłem błędów pomiaru są także niedokładności pomiaru przesunięcia fazowego. Podczas jednego okresu modulacji światło emitowane przez kamerę przebywa 15 m. Stąd wynika, że aby określić odległość z dokładnością do 1 mm, konieczny jest pomiar różnicy fazy z dokładnością do 0,05° przy częstotliwości 23 MHz.

Charakterystycznym dla kamer PMD parametrem jest zasięg jednoznacznego pomiaru. Ograniczenie odległości, w której mogą znajdować się obserwowane przedmioty, jest jedną z większych wad tego typu urządzeń, gdyż może powodować powstawanie dużych błędów pomiaru (błąd jest całkowitą wielokrotnością zasięgu pomiarowego kamery). W przypadku kamery IFM O3D201 zasięg wynosi, w zależności od zastosowanej częstotliwości modulacji oświetlenia, 6,51 m, 7,38 m lub 7,40 m.

Ze względu na uniwersalność urządzenia, które powinno działania również w otwartym terenie, zaimplementowana została dodatkowo funkcja podwójnej ekspozycji przy różnych częstotliwościach modulacji. Dzięki porównaniu wyników tych dwóch pomiarów, umożliwia ona wydłużenie dozwolonego zasięgu do 45 m, co w większości przypadków jest wartością wystarczającą, aby zapobiec powstawaniu błędów wynikających z przekroczenia dopuszczalnej odległości. Zasięg oświetlacza wynosi teoretycznie do 6 m (w takiej odległości jest jeszcze możliwe zarejestrowanie przedmiotu białego, odbijającego 90 % światła). W zależności od połysku, mogą jednak zostać zarejestrowane obiekty znajdujące się w większej odległości. W skrajnym przypadku odblaskowe elementy mogą zostać wykryte nawet z odległości 150 m, co przekracza kilkakrotnie rozszerzony zasięg pomiaru i może stać się przyczyną powstawania poważnych błędów. Dodatkową wadą tego rozwiązania jest dwukrotne wydłużenie czasu pomiaru wynikające z konieczności wykonania dwóch ekspozycji.

Przy określonym czasie naświetlania często pojawia się problem prześwietlania punktów zbyt jasnych lub znajdujących się za blisko kamery oraz niedoświetlania zbyt odległych lub zbyt ciemnych. Piksele prześwietlone i niedoświetlone nie przenoszą poprawnej informacji o odległości, zatem są uznawane za błędne. W wielu przypadkach duży zakres dynamiczny sceny nie pozwala na takie dobranie parametrów ekspozycji, przy których cały obraz zostanie prawidłowo naświetlony. Rozwiązaniem zaimplementowanym przez firmę IFM jest możliwość podwójnej ekspozycji przy różnych czasach naświetlania. Proponowany czas krótszego naświetlania wynosi 1/10 czasu naświetlania podstawowego. W przypadku, gdy przy podstawowym pomiarze wystąpią prześwietlone piksele, przypisywane są im wartości z krótszego pomiaru.

Częstotliwość akwizycji podawana przez producenta wynosi 20 Hz. Jest to maksymalna możliwa do osiągnięcia wartość, zakładająca najkrótszy czas naświetlania wspierany przez dołączone przez producenta oprogramowanie i wyłączenie funkcji rozszerzenia zasięgu jednoznacznego pomiaru, rozszerzenia zakresu dynamicznego, filtrów wygładzających i uśredniania.

Kamera O3D201 przy wymiarach wynoszących 75×95×37 mm i masie 1,2 kg jest urządzeniem niewielkim i lekkim w porównaniu z konkurencyjnymi rozwiązaniami (masa skanera SICK LMS200 to 4 kg). Dzięki temu możliwe jest zastosowanie kamery w systemach, w których nie sprawdzają się skanery laserowe ze względu na zbyt duże wymiary lub masę. Dodatkową zaletą urządzenia jest brak elementów mechanicznych w przeciwieństwie do skanerów wyposażonych w wirujące zwierciadło. Urządzenie jest zatem bardziej odporne na wstrząsy i jest mniejsze prawdopodobieństwo jego rozkalibrowania. Ponadto umieszczone zostało w obudowie o wysokiej klasie szczelności IP67, dzięki czemu jest praktycznie niewrażliwe na warunki atmosferyczne i zapylenie. Kolejną zaletą jest duży zakres temperatur pracy, wynoszący od -10 °C do 50 °C, pozwalający na wykorzystanie kamery w warunkach zewnętrznych.

Kamera jest zasilana napięciem 24 V DC, przy czym dopuszczalne wahania napięcia wynoszą ±10 %, dzięki czemu zapewnienie zasilania w warunkach typowych dla robotyki mobilnej jest stosunkowo mało kłopotliwe. Ze względu na sposób pomiaru, który wymaga zastosowania silnego oświetlacza, urządzenie ma duże zapotrzebowanie na energię: jego moc wynosi 16 W, a pobór prądu nie przekracza 2,5 A. Kamera O3D201 łączy się z komputerem przez sieć Ethernet. Wykorzystuje protokół DHCP, zatem może być włączona do sieci przez router. Do komunikacji z komputerem używane są dwa interfejsy:

  • XML-RPC – służy do konfiguracji kamery z poziomu komputera, umożliwia zmianę czasu ekspozycji, włączanie i wyłączanie filtrów itd.
  • TCP/IP – wykorzystywany do przesyłania danych pomiarowych. Są one przesyłane jako strumień bajtów w odpowiedzi na żądanie wysłania obrazu. Protokół komunikacyjny jest obsługiwany przez dostarczoną przez producenta bibliotekę programistyczną dostosowaną do działania w języku C++.
Tab. 1. Zasięg pomiarów [The range of the sensor]
barwa obiektu zasięg pomiaru (m)
biała 5,8
szara 5,5
czarna 3,3

Zbadane zostały właściwości użytkowe kamery z punktu widzenia robotyki mobilnej. W tym celu wykonano zdjęcia obiektów w różnorodnym otoczeniu i w różnej odległości od kamery. Na ich podstawie określono możliwości realizacji typowych zadań spotykanych w robotyce. Ponadto zbadany został wpływ warunków zewnętrznych i ustawień parametrów kamery na jakość pomiarów w celu scharakteryzowania optymalnych warunków pracy dla realizacji konkretnych zadań. Zweryfikowane zostały dane producenta dotyczące zasięgu pomiaru kamery IFM O3D201. Do badań wykorzystano białą tablicę o wymiarach 1000×700 mm, płytę z naklejonym czarnym matowym kołem o średnicy 700 mm. Obydwie powierzchnie mają zdolność odbijania światła zbliżoną do wartości podanych w karcie katalogowej (90 % i 6 %). Ponadto wykonany został dodatkowy pomiar na szarej płycie o refleksyjności ~70 %. Otrzymane wyniki zaprezentowano w tab. 1.

Jak wiadomo, zasięg kamery zależy w znacznym stopniu od barwy i połyskliwości obserwowanego obiektu. Przedmioty białe powinny być zatem wykrywane ze znacznie większej odległości niż czarne. Przeprowadzone pomiary potwierdziły tę zależność. Dokładność wykonanych pomiarów wynosi ±0,05 m, co przy założeniu, że na zasięg wpływają zarówno warunki zewnętrzne, jak też charakter obserwowanych przedmiotów, jest wartością wystarczającą do określenia przybliżonego zasięgu kamery.

Za odległość graniczną uznany został dystans, przy którym nie występują duże, w stosunku do powierzchni obiektu, obszary niedoświetleń (czyli punktów, które zostały odrzucone przez kamerę jako błędne, ze względu na zbyt małą intensywność).

Minimalna odległość pomiaru w mniejszym stopniu zależy od barwy przedmiotu, natomiast większe znaczenie ma jego połysk. Przy zbyt małej odległości kamery od obiektu obraz, w zależności od kąta ustawienia kamery w stosunku do powierzchni i rodzaju powierzchni obiektu, może łatwo zostać prześwietlony. Z przeprowadzonych obserwacji wynika, że minimalną „bezpieczną” odległością jest 1 m.

W zadaniach wykrywania przeszkód ważne jest, aby zauważane były obiekty o małych wymiarach, z którymi kolizja może być niebezpieczna dla robota, lub dla potrąconego obiektu. Niewielka rozdzielczość kątowa kamery oraz fakt, że do poprawnego pomiaru przedmiot musi być wykryty przez obszar matrycy obejmujący kwadrat o boku dwóch pikseli sprawiają, że obiekty o małych wymiarach, takie jak nogi krzeseł czy małe zwierzę, mogą być wykrywane jedynie z niewielkiej odległości, co ogranicza dopuszczalną prędkość robota.

Tab. 2. Minimalne wymiary wykrytych obiektów [Minimal dimension of detected objects]
odległość (m) minimalne wymiary przedmiotu (mm)
0,5 11×11
1,0 22×22
3,0 65×65
5,0 109×109
6,5 142×142

Teoretycznie przy rozdzielczości kątowej wynoszącej 0,625° i pomiarze przez minimum 4 piksele, obiekt, aby został wykryty, musi mieć minimalne wymiary przedstawione w tab. 2.

Przeprowadzone badania wykazują, że w zadaniach detekcji przeszkód wymiary obiektów mogą być nieco mniejsze niż podawane przez producenta. Detekcja przeszkód nie może być wtedy jednak utożsamiana z pomiarem odległości od nich, gdyż osiągana dokładność pomiaru jest niższa niż w przypadku przedmiotów o zalecanych wymiarach lub większych. Na przykład krzesło o średnicy nogi wynoszącej 28 mm jest wykrywane z odległości 2 m, podczas gdy według danych producenta przy tej odległości obiekt musi mieć przynajmniej 55 mm szerokości. Należy przy tym pamiętać, że wykrywane obiekty mogą mieć mniejsze wymiary od zalecanych, jeżeli nie pochłaniają zbyt dużej ilości światła, przedmioty czarne mogą być wykrywane przy stosunkowo niewielkich dystansach. Leżący na podłodze czarny zasilacz o wymiarach 50×60×85 mm jest widziany z odległości do 1,5 m.

Rys. 3. Obraz wycieraczki [The image of a doormat]

Kamera może być także wykorzystana do badania nawierzchni w celu oceny jej przejezdności. Przykładowy obraz (rys. 3) przedstawia gumową wycieraczkę o wysokości 20 mm leżącą na gładkiej podłodze. Wycieraczka jest wyraźnie widziana przez kamerę, co pozwala na podjęcie decyzji o próbie przejechania po niej.

Z wykresów wynika, że w zależności od odległości i czasu naświetlania charakter błędów wynikających z intensywności obiektów się zmienia. W przeprowadzonych pomiarach dla odległości 1 m, w całym dostępnym zakresie czasów ekspozycji i dla odległości 1,5 m, z czasem ekspozycji poniżej 500 µs, średnia zmierzona odległość pól czarnych jest większa niż pól białych. W pozostałych przypadkach obiekty czarne są widziane jako bliższe niż obiekty białe.

Podczas pracy z kamerą zauważono także, że dla pochłaniających światło obiektów (matowych czarnych) rejestrowanych z odległości bliskiej maksymalnej odległości pomiaru i przy długich czasach ekspozycji bardzo często pojawia się znaczny błąd uzyskanych wyników pomiaru, o wartości nawet rzędu metrów. Jednym z problemów, z jakimi musi się zmierzyć użytkownik kamery IFM O3D201, jest nierównomierny rozkład oświetlenia, dawanego przez wbudowany oświetlacz. Jak wiadomo, wyniki pomiaru odległości zależą od intensywności oświetlenia obiektu. Nierównomiernie oświetlone obiekty są zatem zniekształcane w sposób przypominający dystorsję poduszkową, czyli stają się wklęsłe. Rozkład oświetlenia jest dobrze widoczny, gdy kamera zostanie skierowana na dowolną płaszczyznę. Pewnym utrudnieniem przy kompensacji wpływu tej wady na wyniki pomiaru jest niewspółśrodkowe umieszczenie oświetlacza względem obiektywu, które powoduje, że położenie środka rozkładu intensywności zależy od odległości kamery od obiektu.

Analiza danych

Określenie cech obserwowanych obiektów składa się z następujących etapów:

  1. zebranie danych pomiarowych
  2. zapamiętanie danych w postaci zbioru wektorów normalnych do powierzchni
  3. segmentacja danych
  4. klasyfikacja
  5. określenie stanu obiektów.
Rys. 4. Generowanie wektorów normalnych [The method of normal vector computing]

W celu wyznaczenia wektorów normalnych w wierzchołkach (werteksach) konieczne jest w pierwszej kolejności rozpięcie siatki trójkątów na punktach pomiarowych i wyliczenie współrzędnych wektorów normalnych każdego z otrzymanych trójkątów.

Mając wektory normalne trójkątów o wspólnym wierzchołku, można wyliczyć wektor normalny tegoż wierzchołka. Jego współrzędne są obliczane jako średnia arytmetyczna współrzędnych wektorów normalnych odpowiadających mu trójkątów.

Kolejnym etapem prowadzącym do pomiaru kąta uchylenia drzwi jest segmentacja danych. Segmentacja została przeprowadzona metodą rozrostu ziarna. Polega ona na przypisaniu wybranemu punktowi identyfikatora obiektu, a następnie przypisaniu sąsiadom spełniającym określone warunki tego samego identyfikatora. Dla punktów, które mają przypisany identyfikator, także sprawdza się, czy sąsiednie punkty mogą zostać dołączone do obiektu. Procedura ta jest powtarzana aż do wyczerpania sąsiadujących ze sobą punktów spełniających warunek przynależności.

W opisywanym algorytmie, warunkami przynależności punktów do jednego obiektu są:

  • Mała wartość składowej pionowej wektora normalnego punktu wprowadzana jako parametr metody. Dzięki temu do obiektu mogą być zaliczone jedynie punkty należące do powierzchni pionowych.
  • Mała różnica sumy kwadratów współrzędnych poziomych (X, Z) wektora punktu należącego do obiektu i analogicznej wartości punktu sąsiedniego. Oznacza to, że aby punkt mógł zostać przypisany do płaszczyzny, jego wektor normalny musi mieć zbliżony kierunek do wektora normalnego punktu należącego już do tej płaszczyzny, względem którego rozpatrywana jest jego przynależność do obiektu.

Ograniczona różnica wartości współrzędnej Z punktu należącego do płaszczyzny i rozpatrywanego punktu została wyznaczona doświadczalnie jako 10 cm.

Kolejnym etapem przetwarzania danych jest przypisywanie etykiet semantycznych i określenie stanu obiektów (drzwi). W pracy [11] opisano metody klasyfikacji obiektów i przypisywania im etykiet typu ściana, podłoga, drzwi.

Rys. 5. Obraz rzutu drzwi i fragmentów ścian [Projection of a door and walls]

W celu zmierzenia kąta między skrzydłami drzwi, punkty należące do płaszczyzn muszą zostać zrzutowane na płaszczyznę prostopadłą do nich. Ze względu na fakt, że z dużym prawdopodobieństwem kamera przymocowana do robota nie ma osi optycznej ustawionej idealnie poziomo, rzutowane punkty mogą być rozrzucone na płaszczyźnie, nie układając się w wyraźne linie. W przypadku realizowanego zadania, prostą metodą eliminacji tego problemu jest rzutowanie na płaszczyznę punktów uśrednionych. Z pionowego rzędu punktów należących do jednego obiektu wyznaczany jest jeden punkt, o współrzędnych równych średniej arytmetycznej współrzędnych wszystkich punktów rzędu. W efekcie otrzymujemy ślad drzwi na podłodze, na którego podstawie można wyznaczyć proste o kącie nachylenia względem siebie odpowiadającym kątowi uchylenia drzwi. Na rys. 5 przedstawiono wynik rzutowania fragmentów ścian i drzwi.

Rys. 6. Zależność błędu od kąta uchylenia drzwi [The terror of determining the position of the door]

Kolejny krok algorytmu polega na określeniu parametrów wykrytych linii. Parametry te mogą być określone za pomocą znanej ze statystyki metody regresji liniowej. W związku z powyższym, kąt uchylenia drzwi wyznaczany jest jako kąt między dwoma prostymi otrzymanymi ze zrzutowanych na płaszczyźnie poziomej punktów. Na rys. 6 przedstawiono wyniki eksperymentów.

Z pomiarów wynika, że dokładność pomiaru przy zastosowanej metodzie jest rzędu około 6°, co w przeliczeniu na szerokość szczeliny daje dokładność 6-9 cm, w zależności od kąta otwarcia. Uśrednienie wyników uzyskanych przy różnych pozycjach kamery pozwala na zmniejszenie błędów. Pomiar może być wykonany z podaną dokładnością z odległości do 3,5 m. Przy większych odległościach błędy wynoszą kilkanaście stopni, co dyskwalifikuje wyniki pomiaru w większości zastosowań.

Podsumowanie

W pracy omówione zostały parametry kamery typu PMD IFM O3D201 z punktu widzenia możliwości jej zastosowaniaw robotyce mobilnej. Ponadto zbadane zostały najważniejsze aspekty wpływu warunków otoczenia i rodzaju obiektów na zdolność przeprowadzenia pomiaru i jego jakość. Z badań wynika, że omawiane urządzenie ma ograniczony zakres zastosowań, co jest efektem niskiej rozdzielczości kątowej i dużych błędów pomiaru głębi. W toku badań wykryte zostały typowe błędy pomiarowe o charakterze przypadkowym, też systematycznym. Są to m.in. szumy pomiarowe, spowodowane wpływem zewnętrznego promieniowania i zależność wyników pomiaru od intensywności odbitego światła oraz odległości.

Z uwagi na małą rozdzielczość i dokładność pomiaru, zakres funkcjonalności kamery IFM O3D201 jest znacznie ograniczony. Może ona być stosowana w takich zadaniach jak ocena położenia kątowego i liniowego robota względem ścian lub pomiary geometryczne dużych przedmiotów. Ponadto kamera może być wykorzystana do sprawdzania jakości nawierzchni przed robotem oraz do wykrywania przeszkód. Przy tego typu prostych zadaniach, kamera ma niekwestionowaną przewagę nad stosowanymi zwykle skanerami laserowymi. Jest znacznie tańsza od powszechnie używanego skanera SICK LMS-200 oraz ma mniejszą masę i wymiary. Wstępne założenia pracy dotyczyły napisania programu identyfikującego w obrazie z kamery PMD twarzy ludzkiej lub niewielkich obiektów. Już w początkowym etapie badań okazało się, że parametry kamery nie pozwalają na realizację tego typu zadania. Zadanie zrealizowane w ramach pracy, uwzględniające ograniczone możliwości urządzenia, dotyczy pomiaru kąta uchylenia drzwi wewnątrz budynku. Osiągnięta dokładność pomiaru, wynosząca około 6°, jest wystarczająca dla oceny przejezdności szczeliny drzwi, przy czym uzasadnione jest wprowadzenie funkcji uśredniania kilku pojedynczych pomiarów, w celu zwiększenia dokładności. Dalszym kierunkiem prowadzonych prac powinna być kompensacja błędów systematycznych pomiaru głębi, związanych z winietowaniem dostrzegalnym w obrazie, oraz wpływem barwy na wynik pomiarów.

Prowadzone badania są częściowo finansowane przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach grantu nr 4311/B/T02/2007/33.

Bibliografia

  1. Elfes A.: Sonar-based real-world mapping and navigation. IEEE Transactions on Robotics and Automation, 1987, p. 249–265.
  2. Thrun S., Burgard W., Fox D.: Probabilistic Robotics. MIT-Press, Cambridge, Masachussets, USA, 2005.
  3. Rusu R., Marton C., Blodow N., Dolha M., Beetz M.: Towords 3D point cloud based object maps for household environment. Journal of Robotics and Autonomous Systems, vol. 56, 2008, p. 927–941.
  4. Gu J., Cao Q., Huang Y.: Rapid traversability assesment in 2.5d grid based map on rough terrain. Internationl Journal of Advanced Robotic Systems, vol. 5, no. 4, 2008, p. 389–394.
  5. Schroeder W., Zarge J., Lorensen W.: Decimation of triangle meshes. Computer Graphics, 1992, p. 65–70.
  6. Sakas G., Hartig J.: Interactive visualization of large scalar voxel fields. [in:] Vizualization, 1992, p. 29–36.
  7. Triebel R., Pfaff P., Burgard W.: Multi-level surface maps for outdoor terrain mapping and loop closing. [in:] Proc. of IROS, 2006, p. 1–2.
  8. Mozos O.M., Triebel R., Jensfelt P., Rottman A., Burgard W.: Supervised semantic labeling of places using information extracted from sensor data. Robotics and Autonomous Systems, no. 5, vol. 55, 2007, p. 392–402.
  9. Weingarten J., Siegwart R.: EKF-based 3D SLAM for structured environment reconstruction. [in:] Proceedings of IROS 2005, 2005.
  10. Iocci L., Konolige K., Bajracharya M.: Visually realistic map ping of a planar environment with stereo. Experimental robotics 7, 2001, p. 521–532.
  11. Siemiątkowska B., Szklarski J., Gnatowski M., Zychewicz A.: Segmentacja danych otrzymanych z lasera 3D.Pomiary Automatyka Kontrola, vol. 56, no. 1, 2010, s. 227–278.
  12. Siemiątkowska B., Szklarski J., Gnatowski M., Zychewicz A.: Budowa hybrydowej semantyczno-rastrowej reprezentacji otoczenia robota. vol. 56, no. 1, 2010, p. 229–232.

inż. Jerzy Wojsz

Urodzony w 1987 r., od 2006 r. jest studentem na Wydziale Mechatroniki Politechniki Warszawskiej. W 2010 r. obronił pracę inżynierską z wynikiem bardzo dobrym.

dr Barbara Siemiątkowska

Pracuje w Instytucie Automatyki i Robotyki Politechniki Warszawskiej i w Instytucie Podstawowych Problemów Techniki PAN. Jest absolwentką Wydziału Matematyki, Mechaniki i Informatyki Uniwersytetu Warszawskiego. Pracę doktorską z dziedziny zastosowań sztucznej inteligencji w robotyce obroniła w Instytucie Podstawowych Problemów Techniki PAN. Główną dziedziną zainteresowań naukowych autorki jest zastosowanie sieci komórkowych w nawigacji robotów mobilnych.

 

Keywords

mapping, navigation, nawigacja, reprezentacja otoczenia, system wizyjny, vision

Related articles

  • Straty magazynowe które widać dopiero po inwentaryzacji: lista miejsc gdzie znika towar
  • Dlaczego geometria grotu ma znaczenie? Wpływ kształtu na transfer ciepła
  • Lakiernia przemysłowa w erze Przemysłu 4.0
  • Nowe systemy pozycjonowania firmy norelem – zwiększona precyzja
  • Nowoczesne technologie w konstrukcji hal stalowych – co warto wiedzieć?

Newsletter

Stay up to date with current information.

Comau videos YouTube

Show more videos
Inżynier wie

Events

Show more events
1 Jan Training

Zwiedzanie centrum efektywnej prefabrykacji szaf sterowniczych

1 January 2025 – 31 December 2025
4 Dec Training

Wyposażenie elektryczne maszyn – rozdzielnice i sterownice niskiego napięcia

4–5 December 2025
5 Dec Training

Wymagania rynku amerykańskiego dla produktu elektrycznego/elektronicznego – wstęp do oceny zgodności

5 December 2025
11 Dec Training

Bezpieczeństwo maszyn - algorytm wyznaczania Poziomu Nienaruszalności Bezpieczeństwa SIL

11–12 December 2025
  • facebook
  • Tweeter
  • google+
  • RSS AutomatykaOnline
  • About Us
  • Sales and customer service
  • Privacy Policy
  • Presentation
  • Terms of Use
  • Accessibility Statement
  • Contact Us
  • Contact form
  • Media cooperation
  • Portal Editorial
  • Automatyka Editorial
  • Advertising
  • Advertising contact
  • Advertising in "Automatyka"
  • Newsletter
AutomatykaOnline.pl

© 2014 by Przemysłowy Instytut Automatyki i Pomiarów PIAP. All rights reserved.
created by: TOMP