Badanie przydatności kamery metrycznej IFM 03D201 w nawigacji robotów mobilnych
Jerzy Wojsz, Barbara Siemiątkowska print
Celem pracy jest przedstawienie właściwości kamery metrycznej O3D201 i możliwość jej zastosowania w nawigacji robotów mobilnych. Określono parametry kamery: zasięg, dokładność oraz wpływ rodzaju powierzchni na osiągnięte wyniki. Opisano algorytm określenia kąta uchylenia drzwi na podstawie wskazań kamery. Przedstawiono wyniki przeprowadzonych eksperymentów.
W robotyce mobilnej coraz więcej uwagi poświęca się tworzeniu i programowaniu robotów usługowych. Aby możliwa była komunikacja w języku naturalnym, konieczna jest właściwa reprezentacja otoczenia. Opisywane w literaturze algorytmy budowy map dzielimy na:
- metody metryczne
- metody topologiczne.
Wśród metod metrycznych wyróżnić należy metody rastrowe [1, 2], w których otoczenie jest dzielone na regularne podobszary z przypisywanymi etykietami określającymi, czy dany obszar jest przejezdny, wolny od przeszkód. W reprezentacji wektorowej zwanej również mapą obiektów określane są równania określające krawędzie wykrytych przeszkód [2]. W przypadku map 2D najczęściej są to równania prostych.
W mapach topologicznych określane są relacje między wybranymi miejscami otoczenia. Mapy te są zapisywane w postaci grafu.
Kolejnym kryterium podziału metod reprezentacji otoczenia jest przestrzeń, w której środowisko jest reprezentowane. Do niedawna dominował opis środowiska w przestrzeni 2D, jest on jednak niewystarczający w sytuacji, gdy robot przemieszcza się na zewnątrz budynków lub w pomieszczeniach, gdzie przeszkody występują na różnej wysokości. Coraz częściej rozwijane są systemy, w których tworzone są mapy 3D. Najczęściej opisywane sposoby zapisu reprezentacji 3D to: chmura punktów [3], reprezentacja 2½ D [4], siatki trójkątów [5], woksele [6], mapy wielowarstwowe [7].
W przypadku komunikacji robot-człowiek żadna z wymienionych reprezentacji metrycznych nie jest wystarczająca, dlatego od kilku lat rozwijane są reprezentacje semantyczne [8], w których wykrytym przeszkodom przypisujemy etykiety. W większości tego typu algorytmów zakłada się, że robot przemieszcza się we wnętrzu pomieszczenia, w którym większość obiektów można opisywać za pomocą fragmentów płaszczyzn [9]. W pracach [11, 12] przedstawiono metodę określania położenia ścian, podłogi, sufitu, drzwi. W reprezentacji semantycznej fragmentom otoczenia przypisywane są etykiety określające:
- nazwę obiektu, np. drzwi, lodówka
- nazwę pomieszczenia, np. kuchnia, korytarz
- rodzaj powierzchni, np. trawa, asfalt
- stan obiektu, np. drzwi otwarte, uchylone, zamknięte.
Tworzenie reprezentacji semantycznej nie jest możliwe bez zastosowania właściwego układu sensorycznego. Dalmierze laserowe 2D i sonary dostarczają zbyt mało informacji, aby można było przeprowadzić znaczeniową analizę danych. Zadanie to może być zrealizowane za pomocą układów wizyjnych [10]. Obrazy z kamer są wrażliwe na zmieniające się warunki oświetlenia. Inną grupą układów skanowania 3D są odchylane w pionie dalmierze laserowe lub układy dalmierzy ustawione pod różnymi kątami [11]. Podstawową wadą pierwszej grupy urządzeń tego typu jest długi, trwający kilka sekund czas zbierania danych, wadą drugiej grupy jest niewielka liczba punktów pomiarowych. W przedstawionej pracy stosowano kamerę metryczną O3D201. Zaletą tego urządzenia jest niski koszt i krótki czas zbierania danych.
Praca składa się z dwóch części: w pierwszej omówiono właściwości kamery O3D201 i ocena jej przydatności w robotyce mobilnej. W kolejnej części przedstawiono wyniki eksperymentów analizy semantycznej otoczenia i określania kąta uchylenia drzwi. Na końcu zamieszczono podsumowanie i wnioski.
Kamera metryczna
Kamera metryczna O3D201 produkowana przez niemiecką firmę IFM jest urządzeniem opartym na technologii PMD. Zasada działania polega na pomiarze przesunięcia fazowego odbitej modulowanej fali świetlnej względem wysyłanej. W skład rodziny kamer IFM O3D2xx wchodzą dwa urządzenia o identycznych parametrach technicznych i metrologicznych oraz takich samych obudowach. Kamera O3D200 jest przeznaczona do stosowania na liniach przemysłowych, w związku z czym ma rozbudowane oprogramowanie pozwalające na realizację różnorodnych zadań inspekcji opartych na pomiarze wysokości czy objętości. Nie są jednak dostępne biblioteki programistyczne umożliwiające wykorzystanie kamery w innych zastosowaniach. Kamera O3D201 ma natomiast oprogramowanie służące jedynie do wizualizacji danych pomiarowych w czasie rzeczywistym, ponadto udostępnione są biblioteki pozwalające na sterowanie działaniem urządzenia i akwizycję danych pomiarowych z poziomu własnej aplikacji.
Opisywana kamera jest wyposażona w matrycę PMD o rozdzielczości 64×50 pikseli, choć większość źródeł pochodzących od producenta podaje wartość 64×48 pikseli. Rozdzielczość jest stosunkowo niska, co znacznie ogranicza możliwości zastosowania urządzenia w zadaniach klasyfikacji obiektów.
Kąty widzenia kamery wynoszą 40° w pionie i 30° w poziomie. Są to wartości zapewniające dużą uniwersalność. Dzięki temu kamera może sprawdzać się zarówno na liniach produkcyjnych, w zadaniach kontroli położenia lub wykrywania obecności oraz w pewnym stopniu kontroli wymiarów, jak też w robotyce mobilnej w zadaniach wykrywania przeszkód, czy budowania mapy otoczenia. Niska rozdzielczość matrycy wprowadza znaczne ograniczenie możliwości określenia cech geometrycznych przedmiotów. Rozdzielczość kątowa matrycy wynosi 0,625° w obydwu kierunkach. Oznacza to, że wymiary piksela przy odległości od obiektu równej 1 m wynoszą ok. 11×11 mm, podczas gdy minimalne wymiary, możliwego do poprawnego wykrycia przedmiotu, wynoszą 22×22 mm. Przy tak niskiej rozdzielczości próby implementacji algorytmów rozpoznawania twarzy, czy dowolnych obiektów o małych wymiarach lub identyfikowalnych na podstawie szczegółów (jak np. telefon, kubek) mają niewielkie szanse powodzenia. Możliwe jest natomiast wykorzystanie kamery w odniesieniu do obiektów o dużych wymiarach lub w przypadku, gdy zakładamy stałą, niewielką odległość kamery od obiektu. Może ona zatem służyć do określania położenia robota względem ścian pomieszczenia lub wykrywania zmian nawierzchni, po której się porusza. Na rys. 2 przedstawiono obraz krzesła obserwowanego z różnych odległości.
Dzięki modulacji częstotliwościowej urządzenie może w prosty sposób zignorować znaczną część zakłóceń pochodzących z obcych źródeł światła, ponieważ teoretycznie sygnały o innych częstotliwościach nie są brane pod uwagę podczas pomiaru. Zewnętrzne źródła promieniowania podczerwonego nie pozostają jednak całkowicie bez wpływu na odbiorniki znajdujące się w kamerze, zaszumiając odbierany obraz w stopniu zależnym od stosunku natężenia światła wysyłanego przez kamerę do natężenia światła pochodzącego od tła. Oczywiste jest zatem, że poziom szumów zależy między innymi od refleksyjności mierzonych przedmiotów i ich odległości od kamery. Obiekty czarne i odległe, odbijając niewielką część światła z oświetlacza, będą zatem powodowały znacznie większe zaszumienie niż białe, znajdujące się blisko urządzenia.
Istotnym źródłem błędów pomiaru są także niedokładności pomiaru przesunięcia fazowego. Podczas jednego okresu modulacji światło emitowane przez kamerę przebywa 15 m. Stąd wynika, że aby określić odległość z dokładnością do 1 mm, konieczny jest pomiar różnicy fazy z dokładnością do 0,05° przy częstotliwości 23 MHz.
Charakterystycznym dla kamer PMD parametrem jest zasięg jednoznacznego pomiaru. Ograniczenie odległości, w której mogą znajdować się obserwowane przedmioty, jest jedną z większych wad tego typu urządzeń, gdyż może powodować powstawanie dużych błędów pomiaru (błąd jest całkowitą wielokrotnością zasięgu pomiarowego kamery). W przypadku kamery IFM O3D201 zasięg wynosi, w zależności od zastosowanej częstotliwości modulacji oświetlenia, 6,51 m, 7,38 m lub 7,40 m.
Ze względu na uniwersalność urządzenia, które powinno działania również w otwartym terenie, zaimplementowana została dodatkowo funkcja podwójnej ekspozycji przy różnych częstotliwościach modulacji. Dzięki porównaniu wyników tych dwóch pomiarów, umożliwia ona wydłużenie dozwolonego zasięgu do 45 m, co w większości przypadków jest wartością wystarczającą, aby zapobiec powstawaniu błędów wynikających z przekroczenia dopuszczalnej odległości. Zasięg oświetlacza wynosi teoretycznie do 6 m (w takiej odległości jest jeszcze możliwe zarejestrowanie przedmiotu białego, odbijającego 90 % światła). W zależności od połysku, mogą jednak zostać zarejestrowane obiekty znajdujące się w większej odległości. W skrajnym przypadku odblaskowe elementy mogą zostać wykryte nawet z odległości 150 m, co przekracza kilkakrotnie rozszerzony zasięg pomiaru i może stać się przyczyną powstawania poważnych błędów. Dodatkową wadą tego rozwiązania jest dwukrotne wydłużenie czasu pomiaru wynikające z konieczności wykonania dwóch ekspozycji.
Przy określonym czasie naświetlania często pojawia się problem prześwietlania punktów zbyt jasnych lub znajdujących się za blisko kamery oraz niedoświetlania zbyt odległych lub zbyt ciemnych. Piksele prześwietlone i niedoświetlone nie przenoszą poprawnej informacji o odległości, zatem są uznawane za błędne. W wielu przypadkach duży zakres dynamiczny sceny nie pozwala na takie dobranie parametrów ekspozycji, przy których cały obraz zostanie prawidłowo naświetlony. Rozwiązaniem zaimplementowanym przez firmę IFM jest możliwość podwójnej ekspozycji przy różnych czasach naświetlania. Proponowany czas krótszego naświetlania wynosi 1/10 czasu naświetlania podstawowego. W przypadku, gdy przy podstawowym pomiarze wystąpią prześwietlone piksele, przypisywane są im wartości z krótszego pomiaru.
Częstotliwość akwizycji podawana przez producenta wynosi 20 Hz. Jest to maksymalna możliwa do osiągnięcia wartość, zakładająca najkrótszy czas naświetlania wspierany przez dołączone przez producenta oprogramowanie i wyłączenie funkcji rozszerzenia zasięgu jednoznacznego pomiaru, rozszerzenia zakresu dynamicznego, filtrów wygładzających i uśredniania.
Kamera O3D201 przy wymiarach wynoszących 75×95×37 mm i masie 1,2 kg jest urządzeniem niewielkim i lekkim w porównaniu z konkurencyjnymi rozwiązaniami (masa skanera SICK LMS200 to 4 kg). Dzięki temu możliwe jest zastosowanie kamery w systemach, w których nie sprawdzają się skanery laserowe ze względu na zbyt duże wymiary lub masę. Dodatkową zaletą urządzenia jest brak elementów mechanicznych w przeciwieństwie do skanerów wyposażonych w wirujące zwierciadło. Urządzenie jest zatem bardziej odporne na wstrząsy i jest mniejsze prawdopodobieństwo jego rozkalibrowania. Ponadto umieszczone zostało w obudowie o wysokiej klasie szczelności IP67, dzięki czemu jest praktycznie niewrażliwe na warunki atmosferyczne i zapylenie. Kolejną zaletą jest duży zakres temperatur pracy, wynoszący od -10 °C do 50 °C, pozwalający na wykorzystanie kamery w warunkach zewnętrznych.
Kamera jest zasilana napięciem 24 V DC, przy czym dopuszczalne wahania napięcia wynoszą ±10 %, dzięki czemu zapewnienie zasilania w warunkach typowych dla robotyki mobilnej jest stosunkowo mało kłopotliwe. Ze względu na sposób pomiaru, który wymaga zastosowania silnego oświetlacza, urządzenie ma duże zapotrzebowanie na energię: jego moc wynosi 16 W, a pobór prądu nie przekracza 2,5 A. Kamera O3D201 łączy się z komputerem przez sieć Ethernet. Wykorzystuje protokół DHCP, zatem może być włączona do sieci przez router. Do komunikacji z komputerem używane są dwa interfejsy:
- XML-RPC – służy do konfiguracji kamery z poziomu komputera, umożliwia zmianę czasu ekspozycji, włączanie i wyłączanie filtrów itd.
- TCP/IP – wykorzystywany do przesyłania danych pomiarowych. Są one przesyłane jako strumień bajtów w odpowiedzi na żądanie wysłania obrazu. Protokół komunikacyjny jest obsługiwany przez dostarczoną przez producenta bibliotekę programistyczną dostosowaną do działania w języku C++.
barwa obiektu | zasięg pomiaru (m) |
biała | 5,8 |
szara | 5,5 |
czarna | 3,3 |
Zbadane zostały właściwości użytkowe kamery z punktu widzenia robotyki mobilnej. W tym celu wykonano zdjęcia obiektów w różnorodnym otoczeniu i w różnej odległości od kamery. Na ich podstawie określono możliwości realizacji typowych zadań spotykanych w robotyce. Ponadto zbadany został wpływ warunków zewnętrznych i ustawień parametrów kamery na jakość pomiarów w celu scharakteryzowania optymalnych warunków pracy dla realizacji konkretnych zadań. Zweryfikowane zostały dane producenta dotyczące zasięgu pomiaru kamery IFM O3D201. Do badań wykorzystano białą tablicę o wymiarach 1000×700 mm, płytę z naklejonym czarnym matowym kołem o średnicy 700 mm. Obydwie powierzchnie mają zdolność odbijania światła zbliżoną do wartości podanych w karcie katalogowej (90 % i 6 %). Ponadto wykonany został dodatkowy pomiar na szarej płycie o refleksyjności ~70 %. Otrzymane wyniki zaprezentowano w tab. 1.
Jak wiadomo, zasięg kamery zależy w znacznym stopniu od barwy i połyskliwości obserwowanego obiektu. Przedmioty białe powinny być zatem wykrywane ze znacznie większej odległości niż czarne. Przeprowadzone pomiary potwierdziły tę zależność. Dokładność wykonanych pomiarów wynosi ±0,05 m, co przy założeniu, że na zasięg wpływają zarówno warunki zewnętrzne, jak też charakter obserwowanych przedmiotów, jest wartością wystarczającą do określenia przybliżonego zasięgu kamery.
Za odległość graniczną uznany został dystans, przy którym nie występują duże, w stosunku do powierzchni obiektu, obszary niedoświetleń (czyli punktów, które zostały odrzucone przez kamerę jako błędne, ze względu na zbyt małą intensywność).
Minimalna odległość pomiaru w mniejszym stopniu zależy od barwy przedmiotu, natomiast większe znaczenie ma jego połysk. Przy zbyt małej odległości kamery od obiektu obraz, w zależności od kąta ustawienia kamery w stosunku do powierzchni i rodzaju powierzchni obiektu, może łatwo zostać prześwietlony. Z przeprowadzonych obserwacji wynika, że minimalną „bezpieczną” odległością jest 1 m.
W zadaniach wykrywania przeszkód ważne jest, aby zauważane były obiekty o małych wymiarach, z którymi kolizja może być niebezpieczna dla robota, lub dla potrąconego obiektu. Niewielka rozdzielczość kątowa kamery oraz fakt, że do poprawnego pomiaru przedmiot musi być wykryty przez obszar matrycy obejmujący kwadrat o boku dwóch pikseli sprawiają, że obiekty o małych wymiarach, takie jak nogi krzeseł czy małe zwierzę, mogą być wykrywane jedynie z niewielkiej odległości, co ogranicza dopuszczalną prędkość robota.
odległość (m) | minimalne wymiary przedmiotu (mm) |
0,5 | 11×11 |
1,0 | 22×22 |
3,0 | 65×65 |
5,0 | 109×109 |
6,5 | 142×142 |
Teoretycznie przy rozdzielczości kątowej wynoszącej 0,625° i pomiarze przez minimum 4 piksele, obiekt, aby został wykryty, musi mieć minimalne wymiary przedstawione w tab. 2.
Przeprowadzone badania wykazują, że w zadaniach detekcji przeszkód wymiary obiektów mogą być nieco mniejsze niż podawane przez producenta. Detekcja przeszkód nie może być wtedy jednak utożsamiana z pomiarem odległości od nich, gdyż osiągana dokładność pomiaru jest niższa niż w przypadku przedmiotów o zalecanych wymiarach lub większych. Na przykład krzesło o średnicy nogi wynoszącej 28 mm jest wykrywane z odległości 2 m, podczas gdy według danych producenta przy tej odległości obiekt musi mieć przynajmniej 55 mm szerokości. Należy przy tym pamiętać, że wykrywane obiekty mogą mieć mniejsze wymiary od zalecanych, jeżeli nie pochłaniają zbyt dużej ilości światła, przedmioty czarne mogą być wykrywane przy stosunkowo niewielkich dystansach. Leżący na podłodze czarny zasilacz o wymiarach 50×60×85 mm jest widziany z odległości do 1,5 m.
Kamera może być także wykorzystana do badania nawierzchni w celu oceny jej przejezdności. Przykładowy obraz (rys. 3) przedstawia gumową wycieraczkę o wysokości 20 mm leżącą na gładkiej podłodze. Wycieraczka jest wyraźnie widziana przez kamerę, co pozwala na podjęcie decyzji o próbie przejechania po niej.
Z wykresów wynika, że w zależności od odległości i czasu naświetlania charakter błędów wynikających z intensywności obiektów się zmienia. W przeprowadzonych pomiarach dla odległości 1 m, w całym dostępnym zakresie czasów ekspozycji i dla odległości 1,5 m, z czasem ekspozycji poniżej 500 µs, średnia zmierzona odległość pól czarnych jest większa niż pól białych. W pozostałych przypadkach obiekty czarne są widziane jako bliższe niż obiekty białe.
Podczas pracy z kamerą zauważono także, że dla pochłaniających światło obiektów (matowych czarnych) rejestrowanych z odległości bliskiej maksymalnej odległości pomiaru i przy długich czasach ekspozycji bardzo często pojawia się znaczny błąd uzyskanych wyników pomiaru, o wartości nawet rzędu metrów. Jednym z problemów, z jakimi musi się zmierzyć użytkownik kamery IFM O3D201, jest nierównomierny rozkład oświetlenia, dawanego przez wbudowany oświetlacz. Jak wiadomo, wyniki pomiaru odległości zależą od intensywności oświetlenia obiektu. Nierównomiernie oświetlone obiekty są zatem zniekształcane w sposób przypominający dystorsję poduszkową, czyli stają się wklęsłe. Rozkład oświetlenia jest dobrze widoczny, gdy kamera zostanie skierowana na dowolną płaszczyznę. Pewnym utrudnieniem przy kompensacji wpływu tej wady na wyniki pomiaru jest niewspółśrodkowe umieszczenie oświetlacza względem obiektywu, które powoduje, że położenie środka rozkładu intensywności zależy od odległości kamery od obiektu.
Analiza danych
Określenie cech obserwowanych obiektów składa się z następujących etapów:
- zebranie danych pomiarowych
- zapamiętanie danych w postaci zbioru wektorów normalnych do powierzchni
- segmentacja danych
- klasyfikacja
- określenie stanu obiektów.
W celu wyznaczenia wektorów normalnych w wierzchołkach (werteksach) konieczne jest w pierwszej kolejności rozpięcie siatki trójkątów na punktach pomiarowych i wyliczenie współrzędnych wektorów normalnych każdego z otrzymanych trójkątów.
Mając wektory normalne trójkątów o wspólnym wierzchołku, można wyliczyć wektor normalny tegoż wierzchołka. Jego współrzędne są obliczane jako średnia arytmetyczna współrzędnych wektorów normalnych odpowiadających mu trójkątów.
Kolejnym etapem prowadzącym do pomiaru kąta uchylenia drzwi jest segmentacja danych. Segmentacja została przeprowadzona metodą rozrostu ziarna. Polega ona na przypisaniu wybranemu punktowi identyfikatora obiektu, a następnie przypisaniu sąsiadom spełniającym określone warunki tego samego identyfikatora. Dla punktów, które mają przypisany identyfikator, także sprawdza się, czy sąsiednie punkty mogą zostać dołączone do obiektu. Procedura ta jest powtarzana aż do wyczerpania sąsiadujących ze sobą punktów spełniających warunek przynależności.
W opisywanym algorytmie, warunkami przynależności punktów do jednego obiektu są:
- Mała wartość składowej pionowej wektora normalnego punktu wprowadzana jako parametr metody. Dzięki temu do obiektu mogą być zaliczone jedynie punkty należące do powierzchni pionowych.
- Mała różnica sumy kwadratów współrzędnych poziomych (X, Z) wektora punktu należącego do obiektu i analogicznej wartości punktu sąsiedniego. Oznacza to, że aby punkt mógł zostać przypisany do płaszczyzny, jego wektor normalny musi mieć zbliżony kierunek do wektora normalnego punktu należącego już do tej płaszczyzny, względem którego rozpatrywana jest jego przynależność do obiektu.
Ograniczona różnica wartości współrzędnej Z punktu należącego do płaszczyzny i rozpatrywanego punktu została wyznaczona doświadczalnie jako 10 cm.
Kolejnym etapem przetwarzania danych jest przypisywanie etykiet semantycznych i określenie stanu obiektów (drzwi). W pracy [11] opisano metody klasyfikacji obiektów i przypisywania im etykiet typu ściana, podłoga, drzwi.
W celu zmierzenia kąta między skrzydłami drzwi, punkty należące do płaszczyzn muszą zostać zrzutowane na płaszczyznę prostopadłą do nich. Ze względu na fakt, że z dużym prawdopodobieństwem kamera przymocowana do robota nie ma osi optycznej ustawionej idealnie poziomo, rzutowane punkty mogą być rozrzucone na płaszczyźnie, nie układając się w wyraźne linie. W przypadku realizowanego zadania, prostą metodą eliminacji tego problemu jest rzutowanie na płaszczyznę punktów uśrednionych. Z pionowego rzędu punktów należących do jednego obiektu wyznaczany jest jeden punkt, o współrzędnych równych średniej arytmetycznej współrzędnych wszystkich punktów rzędu. W efekcie otrzymujemy ślad drzwi na podłodze, na którego podstawie można wyznaczyć proste o kącie nachylenia względem siebie odpowiadającym kątowi uchylenia drzwi. Na rys. 5 przedstawiono wynik rzutowania fragmentów ścian i drzwi.
Kolejny krok algorytmu polega na określeniu parametrów wykrytych linii. Parametry te mogą być określone za pomocą znanej ze statystyki metody regresji liniowej. W związku z powyższym, kąt uchylenia drzwi wyznaczany jest jako kąt między dwoma prostymi otrzymanymi ze zrzutowanych na płaszczyźnie poziomej punktów. Na rys. 6 przedstawiono wyniki eksperymentów.
Z pomiarów wynika, że dokładność pomiaru przy zastosowanej metodzie jest rzędu około 6°, co w przeliczeniu na szerokość szczeliny daje dokładność 6-9 cm, w zależności od kąta otwarcia. Uśrednienie wyników uzyskanych przy różnych pozycjach kamery pozwala na zmniejszenie błędów. Pomiar może być wykonany z podaną dokładnością z odległości do 3,5 m. Przy większych odległościach błędy wynoszą kilkanaście stopni, co dyskwalifikuje wyniki pomiaru w większości zastosowań.
Podsumowanie
W pracy omówione zostały parametry kamery typu PMD IFM O3D201 z punktu widzenia możliwości jej zastosowaniaw robotyce mobilnej. Ponadto zbadane zostały najważniejsze aspekty wpływu warunków otoczenia i rodzaju obiektów na zdolność przeprowadzenia pomiaru i jego jakość. Z badań wynika, że omawiane urządzenie ma ograniczony zakres zastosowań, co jest efektem niskiej rozdzielczości kątowej i dużych błędów pomiaru głębi. W toku badań wykryte zostały typowe błędy pomiarowe o charakterze przypadkowym, też systematycznym. Są to m.in. szumy pomiarowe, spowodowane wpływem zewnętrznego promieniowania i zależność wyników pomiaru od intensywności odbitego światła oraz odległości.
Z uwagi na małą rozdzielczość i dokładność pomiaru, zakres funkcjonalności kamery IFM O3D201 jest znacznie ograniczony. Może ona być stosowana w takich zadaniach jak ocena położenia kątowego i liniowego robota względem ścian lub pomiary geometryczne dużych przedmiotów. Ponadto kamera może być wykorzystana do sprawdzania jakości nawierzchni przed robotem oraz do wykrywania przeszkód. Przy tego typu prostych zadaniach, kamera ma niekwestionowaną przewagę nad stosowanymi zwykle skanerami laserowymi. Jest znacznie tańsza od powszechnie używanego skanera SICK LMS-200 oraz ma mniejszą masę i wymiary. Wstępne założenia pracy dotyczyły napisania programu identyfikującego w obrazie z kamery PMD twarzy ludzkiej lub niewielkich obiektów. Już w początkowym etapie badań okazało się, że parametry kamery nie pozwalają na realizację tego typu zadania. Zadanie zrealizowane w ramach pracy, uwzględniające ograniczone możliwości urządzenia, dotyczy pomiaru kąta uchylenia drzwi wewnątrz budynku. Osiągnięta dokładność pomiaru, wynosząca około 6°, jest wystarczająca dla oceny przejezdności szczeliny drzwi, przy czym uzasadnione jest wprowadzenie funkcji uśredniania kilku pojedynczych pomiarów, w celu zwiększenia dokładności. Dalszym kierunkiem prowadzonych prac powinna być kompensacja błędów systematycznych pomiaru głębi, związanych z winietowaniem dostrzegalnym w obrazie, oraz wpływem barwy na wynik pomiarów.
Prowadzone badania są częściowo finansowane przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach grantu nr 4311/B/T02/2007/33.
Bibliografia
- Elfes A.: Sonar-based real-world mapping and navigation. IEEE Transactions on Robotics and Automation, 1987, p. 249–265.
- Thrun S., Burgard W., Fox D.: Probabilistic Robotics. MIT-Press, Cambridge, Masachussets, USA, 2005.
- Rusu R., Marton C., Blodow N., Dolha M., Beetz M.: Towords 3D point cloud based object maps for household environment. Journal of Robotics and Autonomous Systems, vol. 56, 2008, p. 927–941.
- Gu J., Cao Q., Huang Y.: Rapid traversability assesment in 2.5d grid based map on rough terrain. Internationl Journal of Advanced Robotic Systems, vol. 5, no. 4, 2008, p. 389–394.
- Schroeder W., Zarge J., Lorensen W.: Decimation of triangle meshes. Computer Graphics, 1992, p. 65–70.
- Sakas G., Hartig J.: Interactive visualization of large scalar voxel fields. [in:] Vizualization, 1992, p. 29–36.
- Triebel R., Pfaff P., Burgard W.: Multi-level surface maps for outdoor terrain mapping and loop closing. [in:] Proc. of IROS, 2006, p. 1–2.
- Mozos O.M., Triebel R., Jensfelt P., Rottman A., Burgard W.: Supervised semantic labeling of places using information extracted from sensor data. Robotics and Autonomous Systems, no. 5, vol. 55, 2007, p. 392–402.
- Weingarten J., Siegwart R.: EKF-based 3D SLAM for structured environment reconstruction. [in:] Proceedings of IROS 2005, 2005.
- Iocci L., Konolige K., Bajracharya M.: Visually realistic map ping of a planar environment with stereo. Experimental robotics 7, 2001, p. 521–532.
- Siemiątkowska B., Szklarski J., Gnatowski M., Zychewicz A.: Segmentacja danych otrzymanych z lasera 3D.Pomiary Automatyka Kontrola, vol. 56, no. 1, 2010, s. 227–278.
- Siemiątkowska B., Szklarski J., Gnatowski M., Zychewicz A.: Budowa hybrydowej semantyczno-rastrowej reprezentacji otoczenia robota. vol. 56, no. 1, 2010, p. 229–232.
inż. Jerzy Wojsz
Urodzony w 1987 r., od 2006 r. jest studentem na Wydziale Mechatroniki Politechniki Warszawskiej. W 2010 r. obronił pracę inżynierską z wynikiem bardzo dobrym.
Pracuje w Instytucie Automatyki i Robotyki Politechniki Warszawskiej i w Instytucie Podstawowych Problemów Techniki PAN. Jest absolwentką Wydziału Matematyki, Mechaniki i Informatyki Uniwersytetu Warszawskiego. Pracę doktorską z dziedziny zastosowań sztucznej inteligencji w robotyce obroniła w Instytucie Podstawowych Problemów Techniki PAN. Główną dziedziną zainteresowań naukowych autorki jest zastosowanie sieci komórkowych w nawigacji robotów mobilnych.
Keywords
mapping, navigation, nawigacja, reprezentacja otoczenia, system wizyjny, vision