3D-Scan Technologien unter der Lupe
Im Projekt hand.gemacht sammeln wir Oberpfälzer Gegenstände auf eine ganz besondere Art und Weise. Um diese Gegenstände für jeden greifbarer und von überall erreichbar zu machen, digitalisieren und verknüpfen wir sie mit den spannenden Geschichten und Erzählungen der Besitzer und Hersteller. Die Werke werden dann in unserer Unikathek veröffentlicht. Sie bekommen dort eine Bühne für sich selbst und ihre Verbindungen zur Oberpfälzer Kulturgeschichte. Als virtuelle Gedächtnisträger informieren sie so mit großer Reichweite an ein breites Publikum. Die Originale sind – vielleicht als Lieblingsstück – weiter in Gebrauch.
Doch was genau passiert bei der Digitalisierung, welche 3D-Scan Technologien nutzen wir und wie wird aus einem realen Gegenstand ein digitales 3D-Modell?
Augenscheinlich bewegen wir uns bei den Erhebungen mit unserem mobilen 3D-Scanner um die Objekte herum und nach wenigen Momenten erscheint ein 3D-Modell auf dem Display des Geräts. Ein Beispiel für eine Erhebung findet man im Beitrag zum Franziskusmarterl oder im Video-Beitrag von OTV. 3D-Scannen sieht sehr einfach aus, doch innerhalb dieser wenigen Momente passieren sehr viele Messungen und sehr komplizierte Berechnungen, die Teil einer bestimmten Scantechnologie sind. Im Projekt hand.gemacht nutzen wir zwei unterschiedliche 3D-Scan Technologien, Photogrammetrie und ein handgehaltener Strukturlichtscanner.
Was passiert beim 3D-Scannen?
Der Hintergedanke bei allen Scanmethoden ist die Erfassung von räumlichen Koordinaten in Relation zu einer Ausgangsposition oder weiteren Messpunkten. Wo genau befindet sich ein gemessener Punkt auf der Oberfläche eines Gegenstands? Und in welchem Verhältnis steht er zur Position des Scanners, bzw. zu anderen Punkten auf dem Objekt? Aus sehr vielen dieser Messungen werden sogenannte Punktwolken generiert.
Jeder einzelne Punkt wird als Datensatz mit seinen Koordinaten und weiteren Informationen wie zum Beispiel der Farbe der Oberfläche gespeichert. Aus einer solchen Datengrundlage berechnen Algorithmen welche Punkte miteinander verbunden werden müssen um die Oberfläche des Gegenstands zu rekonstruieren. Ein 3D-Modell entsteht. Da die meisten 3D-Scan Technologien nur die oberste Schicht eines Objekts vermessen wird das digitale Abbild des Messobjekts zu einer virtuellen Hülle. Im Inneren sind 3D-Scans also meistens leer.

Messmethoden und Oberflächen-Materialien
Im Rahmen der datenbasierenden 3D-Rekonstruktion werden zwei grundliegende Verfahren eingesetzt: Die aktive und passive 3D-Bildgebung (englisch: 3D-Imaging). Passiv verhält sich diese Bildgebung wenn keine Bestrahlung mit elektromagnetischen Wellen wie zum Beispiel Licht, Radio oder Röntgenstrahlen, erfolgt. Diese Methoden untersuchen vorhandene Eigenschaften des Objekts und von ihm abgegebenen bzw. reflektierten Strahlungen. Als aktive Messmethoden bezeichnet man alle Technologien, die durch die Einstrahlung von elektromagnetischen Wellen Messdaten erheben. Dabei wird vor allem die Reflexion dieser Wellen gemessen.
Nun wird auch schnell klar weshalb gläserne, transparente oder metallische Objekte eine so große Herausforderung für 3D-Scan Technologien darstellen. Bei der passiven und viel mehr noch bei der aktiven Methode werden elektromagnetische Wellen gemessen, die zuvor mit der Oberfläche des Messobjekts interagiert haben. Matte oder raue Oberflächen reflektieren Wellen in einer sehr vorhersehbaren Weise. Es entstehen relativ wenige Spiegelungen oder Reflexionen. Gläser, Metalle oder andere transparente, transluzente oder eben stark reflektierende Materialien brechen, streuen, fokussieren und spiegeln Wellen auf sehr komplexe Weise. Besonders schwierig zu messen sind deshalb auch sehr dunkle oder gänzlich schwarze Oberflächen (Im Falle einer Messung mit Lichtwellen). Die aufgestrahlten Wellen werden absorbiert und nicht wieder zurück gestrahlt. Wie viel Strahlung eine Oberfläche absorbiert oder wieder abstrahlt wird als Albedo bezeichnet. Eine Oberfläche mit einem Albedo-Wert von 0 absorbiert alle Strahlung. Ein Albedo-Wert von 1 bedeutet, dass alle Strahlung reflektiert wird.

Ob ein repräsentatives 3D-Modell berechnet werden kann ist von der Art und Genauigkeit der Messmethode und den verwendeten Algorithmen abhängig. Sind diese Algorithmen in der Lage die optischen Einflüsse auf der Oberfläche eines Gegenstandes zu berücksichtigen, kann theoretisch auch ein gläsernes Objekt vermessen werden. Eine Ausnahme bilden hier besonders die aktiven Messmethoden, denn durch bestimmte optische Brechungen können die aufgestrahlten Wellen schlicht unmessbar werden.
Passive 3D-Scan Technologien
Grundlage für die passive 3D-Bildgebung sind Daten von lichtempfindlichen und positionsgebenden Sensoren wie sie beispielsweise in Smartphones und digitalen Kameras verbaut sind. Die Aufnahmen einer Szene oder eines Objekts werden dann auf unterschiedliche Eigenschaften untersucht um Messdaten zu berechnen. Ein Anwendungsbereich liegt hier in der Astronomie. Bilddaten von Teleskopen geben Aufschluss über Entfernung, Größe und Beschaffenheit ferner astronomischer Körper.
3D-Daten können aus unterschiedlichen Informationsquellen1 eines aufgenommenen Bildes gewonnen werden. Die Bilddaten werden nach Lichteinfall und Schattierungen, Texturen oder Fokus analysiert um Merkmale zu identifizieren und Punktdaten zu erhalten. Diese Daten können aus einzelnen Bildern berechnet werden, häufiger wird aber ein Verfahren mit mehreren Perspektiven angewandt. Unterschiedliche Perspektiven können durch mehrere simultane Aufnahmen (Stereoskopie, englisch: Structure from Stereo) oder durch zeitlich versetzte Aufnahmen (Struktur durch Bewegung, englisch: Structure from Motion)2 erreicht werden.
Struktur durch Schattierung
Um Strukturdaten durch die Schattierung (englisch: Shape from Shading) zu errechnen wird die Helligkeit einzelner Bildpunkte oder Pixel mit der Helligkeit benachbarter Pixel verglichen. So entstehen Kontrastpaare zwischen den Pixeln und schließlich über das gesamte Bild hinweg eine Kontrast-Analyse. Diese gibt je nach Lichteinfall Aufschluss über steigende oder abfallende Oberflächen. Ein “hoher” Kontrast weist dabei auf eine steile oder abrupte Oberflächenänderung hin.


Eine erste weitreichende Anwendung dieser 3D-Scan Technologie war die Vermessung der Mondlandschaft in Vorbereitung auf die Apollo Mission in den 60er Jahren3. Bis heute hat sich diese Technologie so sehr bewährt, dass die NASA 2009 den Lunar Reconnaissance Orbiter4 (LRO) mit den drei Kameras der Lunar Reconnaissance Orbiter Camera5 (LROC) in eine Mondumlaufbahn startete. Die Daten des LROC-Systems werden wie damals durch eine Mischung aus Stereoskopie und Strukturdaten durch Schattierung analysiert und geben uns ein immer genaueres Bild der Kraterlandschaft unseres Monds.
Struktur durch Textur
Bei der Texturanalyse (englisch: Shape from Texture) wird die Verzerrung einer bekannten Textur auf der Oberfläche genutzt um die Krümmung und Ausrichtung zu bestimmen6. Dazu muss die Beschaffenheit der Textur bekannt sein, oder Annahmen über die Oberfläche getroffen werden. Ohne Informationen über Symmetrie, Periodizität, Parallelität und mehr, also ohne Informationen zur Struktur, lässt sich eine Oberfläche nur schwierig computergestützt analysieren.

Struktur durch Fokus
Wird ein sehr schmaler Schärfe-Bereich im Fokus eines Bildes untersucht (englisch: Shape from Focus), kann am Fokuspunkt der Umriss eines Objekts rekonstruiert werden. Werden nun mehrere sequenzierte Aufnahmen mit verändertem Fokus analysiert können 3D-Daten berechnet werden7. Bei der Sequenzierung kann die fokussierende Linse oder die Kamera selbst anders positioniert werden. Die gemessenen Umrisse der Fokusanalyse sind die Grundlage für Punktberechnungen, da alle Punkte auf einem Umriss den selben Abstand zur Linse aufweisen.


Photogrammetrie
Die wohl bekannteste Methode der passiven 3D Bildgebung ist die Photogrammetrie. Aufnahmen aus mehreren unterschiedlichen Perspektiven um ein Objekt herum werden miteinander verglichen und auf gemeinsame Merkmale hin untersucht. Dieses sogenannte “Feature-Matching” gibt Aufschluss über markante Punkte der gemessenen Geometrie in unterschiedlichen Aufnahmen. Werden nun mehrere solcher markanten Punkte ausfindig gemacht, kann ein Objekt durch Triangulation dreidimensional rekonstruiert werden. Farbinformationen aus den Aufnahmen lassen sich während dieses Prozesses zu Texturdaten berechnen. Die Qualität eines durch Photogrammetrie erzeugten 3D-Modells hängt insbesondere von der Qualität und der Anzahl der Aufnahmen ab. Je präziser gemeinsame Merkmale in den Aufnahmen identifiziert werden können um so genauer werden diese Merkmale trianguliert und schließlich im 3D-Modell rekonstruiert.
Einen ausführlichen Artikel zum Thema Photogrammetrie findet man auf artec3d.com.

Aktive 3D-Scan Technologien
Wie bereits beschrieben nutzt die aktive 3D-Bildgebung aufgestrahlte, elektromagnetische Wellen um Messdaten zu generieren. Es liegen drei unterschiedliche Messmethoden zu Grunde. Die Messung der genauen Zeit die eine Welle von Emitter bis zu einem Sensor benötigt. Die Messung von genauen Entfernungen zur Triangulation und die genaue Messung von Wellenlängen. Die Anzahl der Punktmessungen variiert je nach Scansystem und eingesetzter Technologie. Das zu scannende Objekt wird meist unter dem Scanner bewegt um eine möglichst vollständige Messdaten zu erhalten. Moderne Scanner können, wie der von uns eingesetzte Artec Leo, so weit miniaturisiert sein, dass sie in der Hand gehalten über das Objekt hinwegbewegt werden können. Unter den aktiven Messmethoden sind die Time-of-Flight-, Triangulation- und Interferometrie-Methode die bedeutsamsten für die moderne 3D-Datenerhebung.
Zeit (Time-of-Flight)
Diese Messmethode untersucht die verstrichene Zeit vom versenden eines Signals bis zur Ortung der Signalreflexion. Grundliegend basiert die RADAR-Technologie (Radio Detection and Ranging) aus dem frühen 20ten Jahrhundert auf eben diesem Prinzip. Von einer richtbaren Antenne werden Pulse aus Radiowellen gesendet und wieder empfangen. Die reflektierten Wellen geben, je nach Ausrichtung der Antenne, Aufschluss über die Richtung des unbekannten Objekts. Die Dauer zwischen Senden und Empfangen der Wellen kann dank bekannter Wellenlänge zu einer Distanz berechnet werden. Aus Richtung und Distanz lässt sich eine genaue Position ableiten. Eine Punktwolke aus unterschiedlichen Messungen lässt sich dann zu einem Modell berechnen.
Time-of-Flight-Methoden haben eine Reichweite von wenigen Metern bis zu mehreren Kilometern. Sie messen mit einer Genauigkeit von wenigen Zentimetern bis zu mehreren Metern. Entsprechend unterschiedlich sind die Einsatzmöglichkeiten dieser 3D-Scan Technologie. Die Reichweite erlaubt Messungen aus stationären, bodennahen Perspektiven aber auch mobile Systeme, zum Beispiel für autonome Fahrzeuge, und Messsysteme die Daten aus der Luft beim überfliegen von Geländen erheben8.
In den meisten Verbraucher-Systemen kommt vor allem die Mehrkanal-LiDAR-Technologie (Light Detection and Ranging) zum tragen. Hierbei werden mehrere Lasersignale auf eine Fläche projiziert und daraus die dreidimensionalen Daten errechnet. Autonome Fahrzeuge simulieren so zum Beispiel die nähere Umgebung in Echtzeit um entsprechende Fahrtanweisungen zu berechnen. In modernen Smartphones wird die Technologie nicht nur zum 3D scannen genutzt, sondern auch zur schnelleren Fokussierung der Kamera in dunklen Umgebungen.
Entfernung (Triangulation)
Als Triangulation bezeichnet man die Berechnung eines unbekannten Punktes mit Hilfe eines Dreiecks das über zwei weitere, bekannte Punkte aufgespannt wird. Entscheidend sind dabei die Distanz zwischen den bekannten Punkten und die jeweiligen Messwinkel zum Messpunkt. Triangulation ist in der Messgenauigkeit feiner als die Time-of-flight- oder Photogrammetriemethode. Die Genauigkeit bewegt sich in einem Bereich von Bruchteilen von Millimetern bis hin zu mehreren Metern9.
Eine einfache Variante dieser Scanmethode ist der Punktscan (englisch: spot scan). Bei dieser Scanmethode geht man zunächst von einer räumlich bekannten Lichtquelle wie zum Beispiel einem Projektor oder einem Laser aus. Die Lichtquelle projiziert auf eine unbekannte Oberfläche und reflektiert am Messpunkt das Licht zurück auf eine räumlich bekannte Linse, welche den Lichtstrahl auf einen Sensor fokussiert. Eine solche Anordnung strahlt mit einem Projektionswinkel auf die Oberfläche auf und reflektiert das Licht in einem Messwinkel zur Linse und wird dann vom Sensor genau erfasst. Damit kann eine räumliche Koordinate des Messpunkts bestimmt werden10.
Streifenlichtscan und Strukturlichtscan sind weitere Varianten der Triangulations-Methode. Der Streifenlichtscanner projiziert einen Lichtstreifen auf das zu vermessende Objekt statt nur ein einzelnen Punkt. Ein Sensor misst die Verformung des Lichtstreifens durch die Oberflächenstruktur des Objekts. Ähnlich zum Punktscan wird aus diesem Messtreifen eine Reihe von räumlichen Punkten trianguliert. Bei einem Strukturlichtscan wird gleich ein ganzes Lichtmuster auf den zu messenden Gegenstand projiziert. Die Oberfläche des Objekts verzerrt das Muster je nach Einfallwinkel und kann dann von einer Kamera gemessen und analysiert werden. Die erfassten Messpunkte werden entsprechend der vorher erwähnten Scanmethoden trianguliert. Einen ausführlichen Artikel zum Strukturlichtscan findet man unter artec3d.com.
Wellenlänge (Interferometrie)
Interferometrie misst Entfernungen durch die Interferenz mehrerer Lichtwellen. Dabei wird ein Teil der Lichtwellen durch einen halbdurchlässigen Spiegel auf einen weiteren Referenzspiegel aufgestrahlt und von dort direkt zurück zum Sensor reflektiert. Ein anderer Teil der Lichtwellen wird vom halbdurchlässigen Spiegel zunächst auf die zu messende Oberfläche reflektiert um von dort zurück durch den halbdurchlässigen Spiegel zum Sensor reflektiert zu werden. Aus den beiden Lichtwellenteilen bildet sich ein Interferenzmuster welches spezifisch für die gemessene Oberfläche ist. Daraus lassen sich Entfernungsdaten und somit räumliche Koordinaten berechnen. Die Interferometrie ist eine sehr präzise Messtechnik und wird zum Beispiel bei der Vermessung von Bauteilen in der Qualitätssicherung genutzt. Die Messungen sind bis in den Nanometer-Bereich genau.
Weitere 3D-Scan Technologien finden sich in verschiedensten Bereichen. in der Medizin wird zum Beispiel die Computer- und Magnetresonanz-Tomographie als Datengrundlage für hochaufgelöste 3D-Rekonstruktionen des Körper- oder Objektinneren genutzt. In der Bauteilfertigung werden Kontaktscans genutzt. Dazu sind moderne CNC-Maschinen mit sogenannten Contact Measuring Machines (CMM) ausgestattet. Mit Hilfe von drei beweglichen Achsen messen diese CMMs Koordinaten durch Annäherung und Kontakt zum Bauteil. Auch Roboterarme mit Kontaktsensoren ausgestattet werden zur Vermessung von Objekten verwendet.
Literatur
- Se, Stephen/ Pears, Nick: Passive 3D Imaging. in: Liu, Yonghuai/ Pears, Nick/ Rosin, Paul L./ Huber, Patrick (Hg.): 3D Imaging, Analysis and Applications. Cham, Schweiz 2020, Springer Cham. Seite 44 ↩︎
- Se, Stephen/ Pears, Nick: Passive 3D Imaging. in: Liu, Yonghuai/ Pears, Nick/ Rosin, Paul L./ Huber, Patrick (Hg.): 3D Imaging, Analysis and Applications. Cham, Schweiz 2020, Springer Cham. Seite 39 ↩︎
- Horn, Berthold K./ Brooks, Michael J. (Hg.): Shape from Shading. Cambridge, Massachusetts 1989, MIT Press. Seite 12 ↩︎
- National Aeronautics and Space Administration: About LRO. https://science.nasa.gov/mission/lro/about/ Letzter Zugriff am 30.01.2025 ↩︎
- Lunar Reconnaissance Orbiter Camera Science Operations Center: LROC & LRO. https://www.lroc.asu.edu/about Letzter Zugriff am 30.01.2025 ↩︎
- Kanatani, Ken-ichi/ Chou Tsai-Chia: Shape from Texture, General Principle. in: Artificial Intelligence, vol. 38, no. 1, 1989, S. 1-48. Seite 1 ↩︎
- Yuezong, Weng/ Haoran Jia/ Pengxuan, Jia/ Kexin, Chen/ Xiaoxiao, Zhang: A novel algorithm for three-dimensional shape reconstruction for microscopic objects based on shape from focus. in: Optics & Laser Technology, vol. 168, January 2024. Seite 1 ↩︎
- Drouin, Marc-Antoine/ Hamieh, Ismail: Active Time-of-Flight 3D Imaging Systems for Medium-Range Applications. in: Liu, Yonghuai/ Pears, Nick/ Rosin, Paul L./ Huber, Patrick (Hg.): 3D Imaging, Analysis and Applications. Cham, Schweiz 2020, Springer Cham. Seite 167 ↩︎
- Drouin, Marc-Antoine/ Beraldin, Jean-Angelo: Active Triangulation 3D Imaging Systems for Industrial Inspection. in: Liu, Yonghuai/ Pears, Nick/ Rosin, Paul L./ Huber, Patrick (Hg.): 3D Imaging, Analysis and Applications. Cham, Schweiz 2020, Springer Cham. Seite 111 ↩︎
- Drouin, Marc-Antoine/ Beraldin, Jean-Angelo: Active Triangulation 3D Imaging Systems for Industrial Inspection. in: Liu, Yonghuai/ Pears, Nick/ Rosin, Paul L./ Huber, Patrick (Hg.): 3D Imaging, Analysis and Applications. Cham, Schweiz 2020, Springer Cham. Seite 115 ↩︎
Grafiken in diesem Artikel (wenn nicht anders ausgewiesen): Julian Moder