Personal Photonics

Personal Photonics: Neue Benutzerschnittstellen für Open Innovation mit Photonik-Werkzeugen (Personal Photonics)

Open Photonik – offene Innovationsprozesse in der Photonik

Mit dem Begriff „Open Innovation“ wird die Öffnung eines Innovationsprozesses für Beteiligte außerhalb einer Organisation, wie beispielsweise Unternehmen oder Instituten, bezeichnet. Kunden und Nutzer können z. B. bei Open Source Produkten nicht nur die Rolle von Konsumenten einnehmen, sondern aktiv an der Weiterentwicklung und der Verbesserung teilhaben. Während der Open Source Gedanke für Software-Produkte (wie etwa das Android-Betriebssystem für Handys, Webbrowser oder auch Wikipedia) fest etabliert ist, gewinnt er aktuell auch in anderen Bereichen an Bedeutung. Ein Beispiel hierfür ist der 3D-Druck. Diese in der Industrie seit Jahrzehnten eingesetzte Technik wurde durch preiswerte Open-Source-Lösungen für einen breiteren Anwenderkreis nutzbar und konnte erst so ihren Siegeszug antreten. Ein anderes Beispiel ist die Arduino-Plattform, die Mikrocontroller durch offene Hardware und eine frei verfügbare Programmieroberfläche leichter und besser nutzbar macht. Selbst Technik-Laien können mit diesem Open Source Ansatz schnell und leicht neue Hightech-Anwendungen realisieren.

Mit der Fördermaßnahme „Open Photonik“ möchte das Bundesministerium für Bildung und Forschung (BMBF) neue Formen der Zusammenarbeit von Wissenschaft und Wirtschaft mit Bürgern ermöglichen und damit zusätzliche Innovationspfade und -potenziale für die Photonik erschließen. Mögliche Zielrichtungen der Projekte sind dabei Open Innovation Ansätze mit der Absicht, die Nutzung photonischer Komponenten oder Systeme zu verbessern, Open Source Ansätze, die zu einer breiteren Nutzung dieser Komponenten oder Systeme führen und Ansätze, die eine stärkere direkte Bürgerbeteiligung an wissenschaftlichen Projekten ermöglichen. Für die Forschungsarbeiten in insgesamt 10 Verbundprojekten werden im Rahmen des BMBF-Programms „Photonik Forschung Deutschland“ insgesamt ca. 10 Millionen Euro zur Verfügung gestellt.

„Haptisches Sehen” und mobiles 3D-Modellieren für Maker mit Tiefenkameras

Damit Technologien und Werkzeuge der Photonik wirklich für offene Innovation und Maker-Projekte zugänglich werden, brauchen sie neuartige, viel einfachere Benutzer- und Programmier-schnittstellen. Personal Photonics nimmt sich dieser Aufgabe für Tiefenkameras an. Diese Photonik-Technologie liefert 3D-Bilder der Umgebung, die für eine Vielzahl innovativer Projekte als Eingabedaten dienen können — insbesondere, wenn die Ausgabe nicht nur wieder visuell, sondern auf anderen Kanälen wie zum Beispiel dem Tastsinn erfolgt. Eine Weste mit Tiefenkamera und einer Matrix von Vibrationsmotoren z.B. kann Blinden helfen, Hindernisse vor ihnen rechtzeitig zu spüren, um ihnen auszuweichen. Der Fahrersitz im Auto könnte über eine Vibration an der richtigen Stelle im Rücken signalisieren, dass sich im toten Winkel ein über eine Tiefenkamera erkannter Wagen befindet.

Tiefenkameras sind aber nicht nur für Produktideen in der Open Innovation interessant. Sie können auch als Werkzeughelfen, schnell und einfach von einer Idee zu einem 3D-Modell und damit zu einem 3D-druckbaren Prototypen zu kommen. Der Getränkehalter im Auto ist so groß, dass die Lieblingstrinkflasche immer umfällt? Idealerweise sollten ein paar Schnappschüsse des Getränkehalters im Auto sowie ein paar Angaben zu Maßen und Materialeigenschaften („elastisch“) ausreichen, um einen passenden Adapter für die Trinkflasche zu erhalten: 3D-Design vor Ort.

Haptic Toolkit und iWand: Open-Source-Toolkits erleichtern die Nutzung in eigenen Projekten

Bei der Abbildung von Tiefenkamerabildern auf haptische Signale sind Unmengen von Parametern zu wählen. Welcher Bildabstand soll welcher Vibrationsstärke entsprechen? Was empfinden Menschen hier als angenehm und verständlich? Wie ändern sich die Ansteuerungsmuster, wenn sich die Brennweite der Kamera ändert oder Tiefeninformationen an anderer Stelle signalisiert werden sollen — beispielsweise an einem Armband? Im Projekt Personal Photonics werden diese Fragen untersucht und die Erkenntnisse in ein Haptic Toolkit gegossen, mit dem die Maker-Gemeinde ihre eigenen, neuen Produktideen und Experimente entwickeln kann.

Gute Beispiele sind bei Toolkits der Schlüssel zum Erfolg. Als Startpunkte für eigene Projekte mit dem Haptic Toolkit werden deshalb drei konkrete Anwendungen entwickelt und ebenfalls als Open Source zur Verfügung gestellt: (1) die oben beschriebene haptische Weste mit Tiefenkamera und einer Matrix aus Vibrationsmotoren am Torso, (2) die ebenfalls beschriebene Rückfahr-Tiefenkamera mit haptischem Feedback im Fahrersitz und (3) eine mobile Tiefenkamera im Formfaktor einer Taschenlampe, die in Kombination mit einem vibrotaktilen Armband die Übersetzung visueller Informationen in haptische Signale aus beliebigen Blickwinkeln erlaubt. Schließlich wird das Haptic Toolkit so erweitert, dass die Bilder mehrerer Tiefenkameras verschmolzen werden können. Hiermit kann die DIY-Gemeinde ein breites Spektrum eigener Anwendungen entwickeln, in denen photonische Tiefeninformationen in haptische Signale umgewandelt werden.

Mit dem iWand liefert Personal Photonics Makern ein zweites Toolkit, diesmal als Werkzeug für eigene Projekte: eine 3D-Modellierungsumgebung auch für Nichtingenieure auf Basis von Tiefenkamera-Technologie. Der iWand ist ein Stift, der im Raum von einem Smartphone, einer AR-Brille oder einer Tiefenkamera verfolgt werden kann. Mit ihm kann der Maker im Beispiel des Getränkehalters direkt vor Ort im Auto die vorhandene Öffnung nachzeichnen, damit vermessen und daraus automatisch einen 3D-Rohling für den gewünschten Adapter im Computer generieren. Zusätzliche eingebaute Tiefensensorik im Stift selbst ermöglicht dem iWand auch die „Ausleuchtung“ und Vermessung unzugänglicher Stellen. Der 3D-Rohling kann anschließend in Software mit weiteren Angaben zu Materialeigenschaften, mechanischen Funktionen wie beispielsweise Scharnieren und sogar photonischen Ausgabekomponenten wie z.B. Glasfaserbahnen und LEDs versehen werden.

Projektdetails

Koordinator

Prof. Dr.Jan Borchers
Rheinisch-Westfälische Technische Hochschule Aachen - Lehrstuhl für Informatik 10 - Human-Computer Interaction Center
Ahornstr. 55, 52074Aachen
+49 241 80-21050

Projektvolumen

1,1 Mio € (100% Förderanteil durch das BMBF)

Projektdauer

01.06.2016 - 31.05.2019

Projektpartner

Rheinisch-Westfälische Technische Hochschule Aachen - Lehrstuhl für Informatik 10 - Human-Computer Interaction CenterAachen