ZBS Zentrum für Bildverarbeitung und Signalverarbeitung e.V. - Kompetenzen und Tätigkeitsfelder
STARTSEITE  SUCHE  ÜBERSICHT  IMPRESSUM & DATENSCHUTZ
  
 EYE4SAVE: ÜBERWACHUNG VON 3D-RÄUMEN
  Publikationen


In der heutigen industriellen Produktion nimmt die Komplexität der Zusammenarbeit zwischen Mensch und Maschine stetig zu. An hochtechnisierten Industriearbeitsplätzen entstehen immer häufiger kritische Situationen, die zu schweren Arbeitsunfällen führen können. Um diese Situationen zu verhindern und ihre Zahl zu minimieren, sind bereits vielfältige Sicherheitstechnologien im Einsatz. Eine Absperrung des kritischen Bereichs senkt zwar das Gefahrenpotential für die Mitarbeiter, schränkt jedoch auch die erforderlichen Interaktionsmöglichkeiten erheblich ein. Gefragt sind deshalb intelligente, barrierefreie Sicherheitslösungen für den industriellen Bereich, um sowohl sicher als auch gleichzeitig effizient zu automatisieren.

Zur Überwachung von Mensch-Maschine-Arbeitsräumen oder von sicherheitskritischen Bereichen verarbeitet EYE4SAVE Bilder von Stereo-Kamerapaaren, die 3D-Sze­narien aus ver­schie­denen Per­spek­tiven erfassen.

3D-Werkszene
Mensch-Maschine-Kooperation

3D-Raumüberwachung in Echtzeit


Stereopaar
Stereo-Kameramodul


In der Standardkonfiguration besteht ein EYE4SAVE-System aus vier Stereo-Kamerapaaren, die in den Raumecken montiert sind und den Raum aus "schrägen" Ansichten beobachten. Das System ist je nach Bedarf der konkreten Anwendung erweiterbar bzw. skalierbar.


In Analogie zum menschlichen räumlichen Se­hen wer­den aus je­dem der Stereo-Kamera­paare Tie­fen­in­for­ma­tio­nen ge­won­nen. Diese liefern die Basis, um Objekte in der Werkhalle anhand ihres Abstands zur Kamera vom Hintergrund zu unterscheiden. Die Wahr­nehmung von Objekten im Raum be­ruht auf der Analyse dieser Tie­fen­in­for­ma­tion­en in Kom­bination mit aufgenommenen Farbwerten des Hinter­grunds. Als Referenz dient ein im Vorfeld für jedes Stereo­kamera­paar an­ge­lern­tes distanz- und farb­basiertes adap­ti­ves Hinter­grund­mo­dell. Die aus den ver­schie­denen Per­spek­ti­ven er­kannten Vor­der­grund-Ob­jekte werden zu­sam­men­geführt und in Form ihrer visuellen Hüllen drei­di­men­sio­nal ab­ge­bildet. Durch das Ver­binden einer Vielzahl ob­jekt­be­zogener Eigen­schaften aus den unter­schied­lichen An­sich­ten lassen sich Ob­jek­te im 3D-Raum voll­ständig re­kon­stru­ier­en und je nach dem Bedarf der kon­kre­ten Über­wa­chungs­auf­gabe mo­dell­haft be­schreiben. Spe­ziell dafür ent­wickelte Verfahren, wie das Fast-Shape-from-Multi-Silhouettes, er­lau­ben so eine 3D-Raum­über­wachung in Echtzeit.


Silhouette
Distanz-farbcodierte Silhouette ei­ner Ka­me­ra­per­spek­tive



3D-Raum
3D-Voxelmodell

Je mehr Kameras ein Objekt sehen, desto besser nähern sich die Hüllen der tatsächlichen Objektform an. Für den Fall, dass eine Kamera ein Objekt nicht komplett erkennt, da es durch andere Objekte verdeckt wird, bleibt die Hülle entsprechend groß. Dadurch werden Verdeckungen immer zu Gunsten der Sicherheit behandelt. Verdecken sich Objekte gegenseitig, wird der Sicher­heits­korridor um ein Objekt automatisch vergrößert.

Höhere Produktivität

Durch den Wegfall von Gehäusen, Lichtschranken und Gittern im Roboterumfeld wird eine maximale Zugänglichkeit zur Arbeitsmaschine ermöglicht, die zu geringeren Standzeiten und einer erhöhten Produktivität des Roboterarbeitsplatzes führen. Durch die Model­lierung der Roboter und der im Arbeits­raum befind­lichen Per­sonen kön­nen die Abstän­de zwi­schen Robo­ter und Mensch präzise berech­net und damit opti­mal in die Problemlösung und das entspre­chende Sicher­heits­konzept einge­bracht werden. Dadurch hebt sich EYE4SAVE des Zen­trums für Bild- und Signal­verar­beitung (ZBS) e. V. positiv von anderen kamera­­basierten Ansätzen ab, die ledig­lich grob geformte Sicher­heits­zonen um den Roboter legen.

  Publikationen
Flyer Eye4Save:

Bildbasiertes 3D-Überwachungssystem für die sichere Mensch-Maschine-Kooperationen
Daniel Kapusi, Rainer Jahn, Rico Nestler und Karl-Heinz Franke:

Eye4Save - vi­su­elle 3D-Über­wa­chung für die siche­re Mensch-Maschine-Koopera­tion.
17. Anwendungsbezogener Workshop zur Erfassung, Modellierung, Verarbeitung und Auswertung von 3D-Daten "3D-NordOst", GFaI Gesellschaft zur Förderung angewandter Informatik e. V. Berlin, S. 123-134, ISBN: 978-3-942709-13-2 .
Daniel Kapusi, Rico Nestler und Karl-Heinz Franke:

Farbhistogrammgestützte 3D-Objektverfolgung in einem Mensch-Roboter-Überwachungsszenario.
In: Tagungsband 20.Workshop Farbbildverarbeitung. German Color Group, September 2014. ISBN: 978-3-00-047016-5.
Rainer Jahn, Rico Nestler, Karl-Heinz Franke und Dorit Merhof:

Color-Codebooks zur Vorder- und Hintergrundsegmentierung.
In: Tagungsband 20.Workshop Farbbildverarbeitung. German Color Group, September 2014. ISBN: 978-3-00-047016-5.
Martin Krawetzke:

Objektbeschreibungen für die 3D-Szenenanalyse am Beispiel einer kamerabasierten Überwachung von Roboterarbeitsplätzen.
Masterarbeit, TU Ilmenau, März 2014. bearbeitet beim ZBS e. V.
Daniel Kapusi, Martin Klewer und Peter Pharow:

Mehr Sicherheit für die industrielle Robotik.
SPS-Magazin, Seiten 96 - 97, Mai 2013.
Daniel Kapusi, Philipp Prinke, Darko Vehar, Rainer Jahn, Karl-Heinz Franke und Rico Nestler:

Simultaneous Geometric and Colorimetric Cameracalibration.
In: Tagungsband 16. Workshop Farbbildverarbeitung. German Color Group, Oktober 2010. ISBN: 978-3-00-032504-5.
Daniel Kapusi, Philipp Prinke, Rainer Jahn, Karl-Heinz Franke und Rico Nestler

Geometric and Colorimetric Calibration For Multiview Camera Adjustments.
In: IWK - 55th. International Scientific Colloquium. TU Ilmenau, September 2010. ISBN: 978-3-938843-53-6.



Grundlegende Forschungs- und Entwicklungsarbeiten zur Thematik "Barrierefreie Mensch-Maschine-Sicherheit" wurden im Rahmen des Verbundprojektes "BildRobo" des Europäischen Fonds für regionale Entwicklung (EFRE) (FKZ 2008FE9063) gefördert, das von der Thüringer Aufbaubank begleitet wurde.



Seitenanfang  © ZBS e.V. - Kompetenz in Signal- und Bildverarbeitung Webmaster
designed by paragram.de