Safeguarding Youth in the Metaverse
Das Projekt untersucht, wie sich soziale Dynamiken im Metaverse auf die Selbstoffenbarung junger Nutzer auswirken. Durch Experimente mit virtuellen Bystandern werden Datenschutzstrategien entwickelt, um Jugendliche vor Risiken zu schützen.
Steckbrief
-
Beteiligte Departemente
Soziale Arbeit
Technik und Informatik
Wirtschaft -
Institut(e)
Institute for Human Centered Engineering (HuCE)
Institut Digital Technology Management
Institut Fachdidaktik, Professionsentwicklung und Digitalisierung - Strategisches Themenfeld Themenfeld Humane Digitale Transformation
- Förderorganisation BFH
- Laufzeit (geplant) 01.01.2025 - 31.12.2025
- Projektleitung Prof. Dr. Roman Rietsche
-
Projektmitarbeitende
Prof. Dr. Roman Rietsche
Livia Müller
Prof. Marcus Hudritsch
Prof. Dr. Manuel David Bachmann
Sascha Ledermann - Schlüsselwörter Metaverse, Datenschutz, Selbstoffenbarung, Immersion, Jugend, virtuelle Realität, soziale Interaktion, KI, digitale Ethik, Privacy Calculus
Ausgangslage
Das Metaverse entwickelt sich zu einer zentralen Plattform für soziale Interaktion, insbesondere unter Jugendlichen. Bis 2030 wird ein Marktvolumen von 800 Milliarden USD prognostiziert. Ein zentrales Problem dabei ist die unzureichende Datenschutzkompetenz junger Nutzer, die oft persönliche Informationen übermäßig teilen. Der fehlende physische Kontext (z. B. Körpernähe, Mimik) sowie die immersive Natur virtueller Umgebungen beeinflussen das Verhalten und die Risikowahrnehmung. Das Projekt untersucht, wie virtuelle Umgebungen und die Präsenz anderer Personen die Offenlegung sensibler Informationen beeinflussen. Es stützt sich auf Theorien wie den Privacy Calculus und Information Disclosure, um Verhaltensmuster zu identifizieren und neue Schutzmechanismen zu entwickeln.
Vorgehen
- Entwicklung eines konzeptionellen Modells: Untersucht Einflussfaktoren wie Vertrauen, Risiko-Nutzen-Abwägung, Anonymitätswahrnehmung und Immersion. - Experimentelles Design: Rekrutierung Jugendlicher (13–18 Jahre), die in virtuellen Szenarien interagieren. Unterschiedliche Bedingungen (mit/ohne virtuelle Bystander) werden getestet. - Datenerhebung & Analyse: Selbstoffenbarungen werden kodiert und mit statistischen Methoden (ANOVA, Regression) ausgewertet.
Ergebnisse
- Entwicklung datengestützter Designrichtlinien für sichere Interaktionen im Metaverse. - Identifikation von Einflussfaktoren, die zur Reduzierung von Datenschutzrisiken beitragen. - Vorschläge für adaptive Datenschutzmechanismen, wie visuelle Hinweise auf virtuelle Zuhörer oder KI-gestützte Warnsysteme.
Ausblick
Das Projekt liefert empirische Erkenntnisse zur digitalen Privatsphäre und unterstützt Plattformbetreiber bei der Entwicklung sicherer virtueller Umgebungen. Es trägt zur strategischen Forschung der BFH bei und könnte als Grundlage für weitere Drittmittelprojekte dienen.