ARtemisXR: Lernen in der dritten Dimension

Die Erweiterung von ARtemis für den Hochschulkontext

„ARtemisXR“ wurde im Rahmen des Projekts „fuels – Future Learning Spaces“ in 2025 entwickelt.

Vorherige Entwicklungsschritte im Projektverlauf waren: Entwicklung der „ARtemis“-App in 2023, Workflow-Entwicklung und Ausarbeitung des Toolkits um „ARtemis“ sowie die Entwicklung von ARtemis 2.0 in 2024.

Mit ARtemisXR wurde im Jahr 2025 eine räumliche Erweiterung der ARtemis-App angestrebt. Während ARtemis bereits die Integration von 3D-Modellen in AR-Szenarien ermöglicht, geht ARtemisXR einen Schritt weiter: Lernen wird immersiv und multimedial erfahrbar. Als Brücke zwischen ARtemis und der Apple Vision Pro (wird in neuem Tab geöffnet) bringt ARtemisXR Texte, Bilder und 3D-Modelle in einen gemeinsamen, räumlichen Kontext.

Mit der Apple Vision Pro können Lehrende und Lernende die Welt des „Spatial Computing“ betreten. Digitale Inhalte werden nicht länger auf einem flachen Display angezeigt, sondern als Teil des realen Raumes erlebbar.

Das zugrunde liegende Konzept von ARtemisXR gliedert sich in zwei zentrale Ebenen des Lernraums:

  • Window Space (zweidimensionale Fenster im Raum, ideal für erklärende Texte, Beschreibungen, Bilder oder Zusatzinformationen)
  • sowie Volume Space (voll dreidimensionale Darstellungen, in denen sich Objekte realistisch und interaktiv erleben lassen).

Beide Räume sind nahtlos miteinander verbunden. Die Kombination von 3D-Objekt, Text und Bild schafft einen multimodalen Zugang, der unterschiedliche Bedürfnisse von Lernenden ansprechen soll.

Im Hochschulkontext eröffnet ARtemisXR vielfältige didaktische Perspektiven im Hinblick auf aktives, exploratives und soziales Lernen. Studierende können sich frei bewegen, Modelle (z.B. von Gebäuden, Organen, Molekülen) umschreiten, sie vergrößern, drehen oder positionieren. Sie können ein 3D-Modell analysieren und parallel im daneben schwebenden Fenster Hintergrundwissen lesen oder eine erklärende Grafik betrachten.

Mit der Vision Pro können zudem mehrere Personen denselben Lernraum betreten, unabhängig vom physischen Ort. Studierende und Lehrende sehen dasselbe Modell, diskutieren es im Raum und greifen auf identische Zusatzinformationen zu.

Wie schon ARtemis zielt auch ARtemisXR darauf ab, Lehrende und Lernende ohne Programmierkenntnisse zu unterstützen. 3D-Modelle aus bestehenden ARtemis-Sammlungen können übernommen und mit Metadaten, Texten und Bildern verknüpft werden. Die intuitive Steuerung über Hand- und Blickgesten reduziert technische Hürden und ermöglicht einen schnellen Einstieg in die räumliche Lehre.

fuels-Taxonomie

#Size --> Spaces, objects
#Tag --> on site / at home
#Technology --> MR
#Didactic --> explorative, collaborative
Erfahren Sie mehr zur fuels Taxonomie

Kontakt

Alexander Ast / fuels-Team – E-Learning Arbeitsgruppe – TU Darmstadt
Marcella Haller / fuels-Team – E-Learning Arbeitsgruppe – TU Darmstadt