Sensorische Daten und Augmented Reality
?berblick
Im Fokus des Projekts SensAR steht die Vermittlung von sensorischen Daten mittels Augmented Reality (AR) und ihre Nutzung im Produktionsprozess. Der Ansatz konzentriert sich auf generalisierbare Abl?ufe, die in vielen Unternehmen vorkommen, ohne in spezifische Produktionsabl?ufe einzudringen. Ziel ist, eine Entlastung durch automatisierte Erfassung und digitalisierte Assistenzsysteme zu erreichen.
Fragestellung
Projektziel von SensAR ist die Entwicklung von Beispielanwendungen f¨¹r den Einsatz von Augmented Reality (AR) zum Abrufen und kontextsensitiven Darstellen von Sensordaten, die drei aktuelle Anwendungsf?lle unter Beachtung der IT-Sicherheit unterst¨¹tzen. Dabei sollen geeignete Technologien ermittelt und kombiniert werden. Ziel ist ein ganzheitlicher Ansatz, der Forschungsbereiche wie die dynamische Objekterkennung, Ortung, Sensorik und Standards, UI sowie Datensicherheit vereint.
Vorgehensweise
Teilbereiche des Projekts sind:
- Objekterkennung, beispielsweise von Einrichtung oder Ladungstr?gern in Industriehallen, aus Laserpunktwolken bzw. Kamera (Prof. Eberhard G¨¹lch, Prof. Ursula Vo?, Prof. Franz-Josef Schneider)
- Lokalisieren von Besch?ftigten ¨¹ber das Smartphone mittels Indoorpositionsbestimmung (Prof. Stefan Knauth)
- Auslesen der Daten von Sensoren mit verschiedenen Standards (Prof. Dieter Uckelmann)
- User Interface mit der Darstellung der Sensordaten und Bedienelemente (Prof. Volker Coors, Prof. Gero L¨¹ckemeyer)
- Datensicherheit und Datenschutz (Prof. Jan Seedorf)
Anhand von drei Beispielszenarien sollen M?glichkeiten f¨¹r Augmented Reality-Anwendungen dargestellt werden:
- Facility Management (Auslesen von im Geb?ude angebrachten Sensoren mit dem Smartphone und grafische Darstellung von Wartungsbedarf oder Fehlern)
- Industrie, wie beispielsweise das Erkennen von Industriegeb?udeeinrichtung und Ladungstr?gern in Laserpunktwolken
- Logistik: Eine Fachkraft ben?tigt an einer Maschine Unterst¨¹tzung. Mittels Smartphone-App mit Indoor-Lokalisierung k?nnen hier Besch?ftigte mit dem k¨¹rzesten Laufweg alarmiert werden. Alternativ kann mittels Remote Assistance Hilfe zur Fehlerbehebung geleistet werden.
Ergebnisse
Es konnten vier unterschiedliche Use Cases identifiziert und bearbeitet werden, die eine Bandbreite technologischer Anforderungen abdecken: Objekte und Sensoren von station?r bis zu mobil, ben?tigte Displaytechnologie von konventionell bis AR. Die vier Use Cases sind RFID-Messkammer, Fabriklayout, Ladungstr?ger und E-Bike. F¨¹r diese Use Cases konnten Prototypen implementiert und evaluiert werden, die die f¨¹r den jeweiligen Use Case notwendigen Technologiekomponenten von der KI-gest¨¹tzten Objekterkennung ¨¹ber Sensordatenaustausch und User Interface bis zu Sicherheitsanforderungen erfolgreich verkn¨¹pften. Insbesondere die RFID-Messkammer und der daf¨¹r erstellte Prototyp einer AR-gest¨¹tzten Bedienungshilfe und Wegenavigation zur Messkammer stellte sich als besonders repr?sentativer Anwendungsfall heraus. Er stellt einerseits ¨¹bliche Industrieszenarien wie Wegef¨¹hrung zu und Zustandsanzeige von Maschinen dar und erfordert auch die Verkn¨¹pfung einer Vielzahl unterschiedlicher Technologiekomponenten.
Durch die durchgef¨¹hrten Transferveranstaltungen, in denen Demonstrationen als auch Diskussionen im Workshop-Charakter stattfanden, konnte Feedback von au?en im Allgemeinen und ¨¹ber eingeladene KMUs im Speziellen eingeholt werden. Dieses Feedback best?tigte den prototypischen Charakter der Use Cases und triggerte einen Ideen- und Wissensaustausch. Das Feedback zeigte aber auch auf, dass, wie erwartet, in der Industrie und gerade bei den KMUs sehr konkrete Fragestellungen auftreten, die eine jeweils konkret abgestimmte Implementation erfordern. Diese Abstimmung ist aber aufgrund der offen implementierten Basis sowie dem bisherigen Fokus auf die generalisierbaren Abl?ufe deutlich leichter umsetzbar. Innerhalb des Projekts konnte also die Durchf¨¹hrbarkeit einer AR-basierten Visualisierung von Sensordaten im Industrie 4.0 Umfeld gezeigt werden, die den Weg f¨¹r zuk¨¹nftige Produktentwicklungen in diesem Bereich skizziert. Das Ziel, KMU hierdurch einen niederwelligen Einstieg in das Thema zu erm?glichen, wurde somit erreicht. Weitere Details, wie z.B. ein Film zur Wegef¨¹hrung oder den inhaltlichen Abschlussbericht mit den Einzelergebnissen der Arbeitspakete, finden Sie unter sensar.hft-stuttgart.de
Folgende Ver?ffentlichungen/Beitr?ge in Form von Tagungsteilnahmen, Workshops und Publikationen sind aus dem Projekt entstanden:
- Jensen, M. P.; Uckelmann, D. (2020) Standards f¨¹r das Internet der Dinge: Heterogenit?t, Interoperabilit?t und Herausforderungen. ZWF Zeitschrift f¨¹r wirtschaftlichen Fabrikbetrieb, 115 (3), S. 171-174. DOI: 10.3139/104.112245
- Abbasi Zadeh Behbahani, E; Adineh, H.; Uckelmann, D.; Jensen, M. P. (2022). Digitalization of an Indoor-Positioning Lab Using a Mobile Robot and IIoT Integration. In D. Uckelmann, G. Romagnoli, J. Baalsrud Hauge, V. Kammerlohr (Hrsg.) Online-Labs in Education, Proceedings of the 1st International Conference on Online-Labs in Education, 10.-12. 03. 2022, Stuttgart. Nomos, Baden-Baden, ISBN 978-3-98542-036-0.
- Stefan Knauth: Evaluation of Geomagnetic Matching Algorithms for Indoor Positioning, Vortrag und Poster, IPIN 2021 Conference , November 29 ¨C December 2, 2021, Lloret de Mar, Spain, http://ceur-ws.org/Vol-3097/paper31.pdf
- Gemeinsame Ver?ffentlichung eines Whitepapers mit dem VDC, der Holo-Light GmbH sowie der Trumpf Tracking Technologies GmbH in Business Geometrics 1/22 ?Standardisierte Indoor-Ortung mit omlox. Exakte Lokalisierung f¨¹r Augmented-Reality-Anwendungen im Bereich Industrie 4.0¡°, f¨¹r die HFT Stuttgart Volker Coors, Dieter Uckelmann, Stefan Knauth , 31.03.2022 (https://www.vdc-fellbach.de/nachrichten/2022/01/31/whitepaper-zur-standardisierten-indoor-ortung-mit-omlox/ (abgerufen am 30.11.2022))
- Lars S?ren Obrock und Colien Schreiber: Posterpr?sentation zum Thema Objekterkennung auf dem Dialogforum Region Stuttgart zum Thema ?K¨¹nstliche Intelligenz: Technologien begreifen ¨C Potenziale nutzen¡°, 22.11.2019 an der Hochschule f¨¹r Technik Stuttgart. /forschung/news/dialogforum-region-stuttgart-kuenstliche-intelligenz (abgerufen am 7.3.2022)
- Stefan Knauth: Evaluation of Geomagnetic Matching Algorithms for Indoor Positioning, Vortrag und Poster, IPIN 2021 Conference , November 29 ¨C December 2, 2021, Lloret de Mar, Spain, http://ceur-ws.org/Vol-3097/paper31.pdf
- Marc-Philipp Jensen: ¡°Digitalization of an Indoor-Positioning Lab Using a Mobile Robot and IIoT Integration¡±, Vortrag auf der 1st International Conference on Online-Labs in Education, 10.-12. M?rz 2022, Stuttgart.
- Max Pengrin: ?Functional Encryption & Homomorphic Encryption for RIOT¡°, Vortrag auf dem RIOT Summit 2020
- IHK-Webinare mit HFT-Forschenden zum Projekt ?SensAR¡°. /forschung/news/ihk-webinar-mit-hft-forschenden-zum-projekt-sensar-augmented-reality-loesungen-fuer-kleinere-und-mittlere-unternehmen. (abgerufen am 7.3.2022)
- 24.03.2021: Inhaltlicher Fokus auf die Objekterkennung und Visualisierung, Vorstellung der Arbeiten und bisherigen Ergebnisse durch die beteiligten Professor:innen und Mitarbeiter:innen
- 14.04.2021: Inhaltlicher Fokus auf Lokalisation, Sensoren und Datensicherheit, Vorstellung der Arbeiten und bisherigen Ergebnisse durch die beteiligten Professor:innen und Mitarbeiter:innen
- Hightechsummit2021. https://hightech-summit.de/tag2/ (abgerufen am 7.3.2022)
- 19.10.2021: Vorstellung des Projekts und bisheriger Ergebnisse beim Techbreakfast unter dem Titel ?Sensorische Daten und AR in Manufacturing¡°, Vorstellung durch die beteiligten Professor:innen und Mitarbeiter:innen
- XR Week 2022:
- 14.09.2022: Vortrag im Rahmen des Kongressprogramms, ?Das SensAR-Projekt und weitere Arbeiten zu AR in der Stadtplanung / Partizipation¡°, Prof. Dr. V. Coors
- 14.-15.10.2022: XR Expo Messestand zum Projekt SensAR, Standbetreuung durch alle beteiligten Professor:innen
![[Bild: HFT Stuttgart] Person vor Hinweisschild](/fileadmin/Dateien/Forschung/_processed_/8/9/csm_Fyler_foto_300_fa8d560e03.jpg)
![[Bild: HFT Stuttgart |?Carl Zeiss Stiftung] Logos des Projektes](/fileadmin/Dateien/Forschung/_processed_/e/8/csm_Logos_MobiArch_SensAR_alle_6b715f1420.png)
Leitung | Prof. Dr. Volker Coors, Prof. Dr. Eberhard G¨¹lch, Prof. Dr. Stefan Knauth, Prof. Dr. Gero L¨¹ckemeyer, Prof. Dr. Franz-Josef Schneider, Prof. Dr. Jan Seedorf, Prof. Dr. Dieter Uckelmann, Prof. Dr. Ursula Vo? |
Partner | Daimler Truck AG, Leuze electronic GmbH + Co. KG, Softvise GmbH |
Website | sensar.hft-stuttgart.de |
F?rdergeber | Carl-Zeiss-Stiftung |
Ausschreibung | Digitalisierung: Grundlagen erforschen ¨C Anwendungen nutzen |
Laufzeit | 01.04.2019 - 31.03.2022, verl?ngert bis 30.09.2022 |
Team
Name & Position | E-Mail & Telefon | B¨¹ro |
---|---|---|
Prorektor Forschung und Digitalisierung | +49 711 8926 2663 | 1/121 |
Seniorprofessor | +49 711 8926 2610 | 2/210 |
Professor | +49 711 8926 2966 | 2/546 |
Dekan Fakult?t C Vermessung Informatik Mathematik | +49 711 8926 2519 | 2/363 |
Professor | +49 711 8926 2571 | 2/543 |
Professor | +49 711 8926 2801 | 2/540 |
Professor / Wissenschaftlicher Direktor | +49 711 8926 2632 | 2/145 |
Professorin, Projektpr¨¹fungsamt Mathematik/BPS | +49 711 8926 2814 | 2/318 |