Definition: SLAM bezeichnet ein Verfahren, bei dem ein System gleichzeitig seine eigene Position bestimmt (Localization) und eine Karte der Umgebung erstellt (Mapping). Die Technologie ermöglicht es Geräten wie AR-Brillen, Smartphones oder autonomen Robotern, sich in unbekannten Umgebungen zu orientieren, ohne auf externe Positionssysteme wie GPS angewiesen zu sein.

Der SLAM-Prozess läuft in zwei parallelen Schritten: Während das System durch die Umgebung navigiert, identifiziert es charakteristische Merkmale (Feature Points) wie Ecken, Kanten und Texturen. Gleichzeitig nutzt es diese Merkmale, um seine eigene Bewegung und Position zu berechnen. Durch kontinuierliche Abgleiche zwischen erkannten Features und der entstehenden Umgebungskarte entsteht ein präzises räumliches Verständnis.

Englisch: Simultaneous Localization and Mapping

SLAM in Augmented Reality

SLAM ist die zentrale Technologie hinter Markerless Tracking in Augmented Reality. Moderne AR-Frameworks wie ARKit (Visual-Inertial Odometry) und ARCore (Environmental Understanding) nutzen SLAM-Algorithmen, um virtuelle Objekte stabil in der realen Welt zu positionieren – ganz ohne physische Marker.

Visual-Inertial Odometry (VIO) kombiniert Kameradaten mit Inertialsensoren (Gyroscope, Accelerometer) für präziseres Tracking. Diese Fusion kompensiert Schwächen einzelner Sensoren und ermöglicht robustes SLAM auch bei schnellen Bewegungen.

Feature-basiertes SLAM erkennt markante Punkte in der Umgebung und verfolgt deren Position über mehrere Kamerabilder hinweg. Durch Triangulation wird die 3D-Struktur der Szene rekonstruiert.

Technische Verfahren

Monocular SLAM Nutzt eine einzelne Kamera zur Umgebungserfassung. Kostengünstig, aber anfällig für Maßstabsprobleme (Scale Ambiguity).

Stereo SLAM Verwendet zwei Kameras für direkte Tiefenschätzung. Höhere Präzision bei der räumlichen Rekonstruktion.

RGB-D SLAM Kombiniert Farbkamera mit Tiefensensor (z.B. LiDAR). Liefert direkte Tiefenmessungen und ermöglicht dichte 3D-Rekonstruktion.

Visual-Inertial SLAM Fusioniert Kameradaten mit Inertialsensoren. Standard in modernen Smartphones und AR-Brillen.

Anwendungsbereiche

Augmented Reality Präzise Positionierung virtueller Objekte in realen Umgebungen ohne externe Marker. Grundlage für Markerless AR-Anwendungen.

Robotik und autonome Fahrzeuge Navigation in unbekannten Umgebungen, Hindernisvermeidung, Pfadplanung.

Indoor-Navigation Orientierung in Gebäuden ohne GPS-Signal. Einsatz in Flughäfen, Einkaufszentren, Lagerhallen.

3D-Rekonstruktion Automatische Erstellung von 3D-Modellen aus Kameraaufnahmen für Architektur, Denkmalschutz oder Vermessung.

Herausforderungen

Loop Closure Erkennung bereits besuchter Orte zur Vermeidung von Kartierungsfehlern. Kritisch für langfristige Genauigkeit.

Dynamic Environments Bewegte Objekte (Menschen, Fahrzeuge) können das Tracking stören. Robuste Algorithmen müssen statische von dynamischen Features unterscheiden.

Computational Complexity Echtzeit-SLAM erfordert erhebliche Rechenleistung. Optimierung für mobile Geräte ist herausfordernd.

Texturarme Umgebungen Einfarbige Wände oder repetitive Muster erschweren Feature-Erkennung. Moderne Systeme nutzen zusätzliche Sensoren (LiDAR) zur Kompensation.

Branchenstandards und Frameworks

ORB-SLAM Open-Source SLAM-System für monokulare, stereo und RGB-D Kameras. Weit verbreitet in Forschung und Entwicklung. Quelle: https://github.com/raulmur/ORB_SLAM2

ARKit (Apple) Proprietäres SLAM-Framework mit Visual-Inertial Odometry für iOS-Geräte. Quelle: https://developer.apple.com/augmented-reality/arkit/

ARCore (Google) Googles AR-Plattform mit Environmental Understanding und Motion Tracking. Quelle: https://developers.google.com/ar

OpenVSLAM Open-Source Visual SLAM-Framework mit Unterstützung für verschiedene Kameratypen. Quelle: https://github.com/OpenVSLAM-Community/openvslam

Verwandte Themen

Tracking-Technologien: - Markerless Tracking – AR ohne physische Marker - Marker Tracking – AR mit vordefinierten Referenzpunkten - Visual Odometry – Positionsschätzung aus Bildsequenzen - LiDAR-basiertes Tracking – Tiefensensor-gestütztes Tracking

AR-Technologien: - Augmented Reality (AR) – Überlagerung virtueller Inhalte - Spatial Mapping – Räumliche Umgebungserfassung - Plane Detection – Erkennung ebener Flächen - Feature Detection – Identifikation markanter Bildpunkte

Anwendungen: - AR-Navigation – Wegfindung mit Augmented Reality - 3D-Modellierung – Digitale 3D-Rekonstruktion - Robotik – Autonome Navigation - Mixed Reality – Verschmelzung realer und virtueller Welten