8. Symposium on Pervasive Displays in Palermo
Vom 12. bis 14. Juni fand im historischen Palazzo Chiaramonte-Steri, u.a. auch Sitz des Rektorats der Universität Palermo, das 8. Symposium on Pervasive Displays statt. Anders als viele vor allem technologiezentrierte Konferenzen stellt dieses Symposium weniger die reine Grafik- oder Displaytechnik in den Vordergrund, sondern vielmehr die Frage, wie Menschen mit Displays interagieren – und welche Konsequenzen sich daraus für zukünftige, teils radikal neu gedachte Displayformen ergeben.
Dabei reichte das Spektrum von sehr konkreten Anwendungsfällen bis hin zu ausgesprochen futuristischen Konzepten. Zu Letzteren gehören etwa Displays, die auf akustischer Levitation basieren und mit Hilfe des Schallstrahlungsdrucks dreidimensionale, interaktive Darstellungen mit frei schwebenden Partikeln erzeugen, oder mobile, autonome Einheiten, die als rekonfigurierbares Schwarmdisplay agieren. Auch haptische Rückmeldesysteme auf Ultraschallbasis für berührungslose Gestensteuerung sind längst nicht mehr nur Forschungsprototypen, sondern haben in Teilen bereits Marktreife erreicht.
Die Tagung bot damit nicht nur visionäre Ideen, sondern auch zahlreiche Forschungsarbeiten zum tatsächlichen Nutzerverhalten – sowohl im Kontext bestehender Digital-Signage-Installationen als auch in Lern-, Therapie- und Arbeitsumgebungen.
Urbane Displays
Ein zentrales Thema war die Zukunft urbaner Displays. Klassische großformatige Werbedisplays im öffentlichen Raum liefern zwar hochauflösenden, bewegten Content, werden von Passanten jedoch häufig ignoriert – außer zur Kollisionsvermeidung. Die Erwartung, dort lediglich Werbung vorzufinden, führt zu einer Art kognitiver Filterung (Display-Blindheit).
Neue Konzepte verhandeln daher Displays, die sich architektonisch integrieren und sogar aus autonomen, mobilen Komponenten bestehen. Denkbar sind Projektionen von Straßenlaternen oder von Drohnen aus für Navigation und situative Information. Auch Pflanzen wurden als niedrigauflösende, nicht-künstliche Anzeigeelemente diskutiert.

Marius Hoggenmüller untersuchte die unterschiedlichen Erscheinungsformen urbaner Displays und verwies auf das Potenzial kleiner, mobiler Roboter, die physisch in ihre Umgebung eingebettet sind und Inhalte nicht nur grafisch, sondern auch über physikalische Konfigurationen darstellen können.
Interaktive Grabmale
Ein ungewöhnlicher, aber aufschlussreicher Beitrag widmete sich der Gestaltung zukünftiger Grabsteine. Neben traditionellen Formen existieren bereits heute individualisierte Grabgestaltungen – etwa mit Lichtinstallationen oder spielzeugartigen Elementen bei Kindergräbern. Ashley Colley präsentierte eine Studie zur Akzeptanz interaktiver Grabmale. Ein Prototyp, der sich formal in die Tradition steinerner Grabsteine einfügte, wurde auf einem inszenierten Friedhof getestet.
Fotografien und familiengeschichtliche Informationen wurden positiv bewertet und als generationsübergreifend verbindend wahrgenommen. Digitale Gästebücher oder dialogorientierte Funktionen hingegen stießen im Friedhofskontext auf Ablehnung. Interaktive Elemente wurden eher in Verbindung mit Denkmälern akzeptiert als mit klassischen Grabmarkierungen.
Displays im Cockpit und auf der Brücke
Neben visionären Ansätzen wurden auch praxisnahe Themen behandelt, etwa die Informationsdarstellung in autonomen Fahrzeugen. Transparenz über bevorstehende Systemaktionen erhöht die Akzeptanz automatisierter Steuerung und erleichtert die Übergabe an den Menschen.
Tim Claudius Stratmann untersuchte, wie auf einer Schiffsbrücke mittels Lichtsignalen in Multi-Monitor-Umgebungen die Aufmerksamkeit gezielt auf relevante Displays gelenkt werden kann. Ziel ist es, Operatoren nicht zu überfordern, sondern kontextsensitiv zu unterstützen.
Datenerhebung über Public Displays
Diskussionswürdig war ein Beitrag von Simo Hosio und einem internationalen Forschungsteam. Während interaktive Displays oft anwendungsspezifische Daten sammeln, gibt es bislang wenig Forschung zur freiwilligen Erhebung allgemein nutzbarer, getaggter Daten über solche Systeme.
In einer 61tägigen Feldstudie wurden 199 Selfie-Videos mit Zustimmung der Nutzer für gemeinnützige Forschung erfasst, teilweise ergänzt um Metadaten. Solche Datensätze könnten beispielsweise zum Training von KI-Systemen dienen, etwa zur Erkennung gesundheitlicher Indikatoren. Die Studie zeigte, dass Menschen bereit sind, selbst sensible Daten zu teilen – sofern Transparenz und ethische Rahmenbedingungen gegeben sind.
Berührungslose Interaktion und neue Rückkanäle
Die automatische Ortung von Personen und mobilen Geräten eröffnet neue Interaktionsformen. In einem finnisch-deutschen Projekt konnten Nutzer Inhalte per Freiluftgeste direkt auf ihr Smartphone übertragen, ohne das Display zu berühren. Solche Konzepte werden akzeptiert, wenn sie klaren Mehrwert bieten und transparent mit Tracking und Datennutzung umgehen.
Als haptischer Rückkanal wurde ein Ultraschall-Array vorgestellt, das unter dem Display installiert wird und taktile Empfindungen in der Luft erzeugt.
Lernen mit VR und AR
Auch Lernumgebungen waren Thema. Orit Shaer präsentierte eine Studie zum visuellen Verhalten beim Umgang mit archäologischen Artefakten – als 3D-Druck, als 3D-Animation und in AR via HoloLens. Das Ergebnis: Virtuelle Darstellungen wurden ähnlich intensiv wahrgenommen wie physische Objekte. Die immersive Qualität von AR wurde von den Nutzern ausdrücklich bestätigt.
Spezielle Benutzergruppen
Besonderes Augenmerk lag auf Kindern und Personen mit Autismus-Spektrum-Störung (ASD). Probleme wie „Interaction Blindness“ (fehlende Erkennbarkeit von Interaktionsmöglichkeiten) oder „Affordance Blindness“ (Unklarheit über mögliche Interaktionsformen) treten hier verstärkt auf.
Eine Studie von Vito Gentile zeigte, dass touchbasierte Interaktion von ASD-Nutzern als effektiver und einfacher wahrgenommen wird, während berührungslose Gesten mehr Spaß und Engagement fördern – insbesondere in Lernkontexten.
Bei Kindern zeigte sich, dass jüngere schneller auf Gesteninteraktion reagieren, während ältere zunächst Touch versuchen – geprägt durch Smartphone-Erfahrung. Spielerische Exploration verlängert zwar die Interaktionsdauer, kann aber positive Lerneffekte fördern.

Demosession: Von Pflege bis Calm Technology
In der Demosession wurde unter anderem ein multimodales Alarmsystem für Intensivstationen präsentiert, das Google Glass integriert. Ziel ist es, akustische Überlastung zu reduzieren und Alarme multimodal, also etwa auch mit Lichtsignalen oder Vibrationen, zu vermitteln.
Ein weiteres Projekt demonstrierte elektrochrome, nicht-selbstleuchtende Displays im Sinne der „Calm Technology“. Diese stromsparenden, frei formbaren Anzeigen vermitteln Informationen dezent in der Peripherie der Wahrnehmung.
Workshops und Urban Art
Der begleitende AR-Workshop animierte Graffiti in Palermo mittels der Artivive-Plattform. Ein weiteres Tutorial untersuchte den Einsatz interaktiver Displays zur Unterstützung des Tourismus und kombinierte theoretische Einführung mit Stadterkundung und Konzeptentwicklung.

Multimodales Ultraschall-Display – Projekt Levitate
Ein besonderes Highlight war das an der Universität Glasgow entwickelte 3D-Display auf Basis akustischer Levitation. Kleine Styroporkügelchen dienen als Bildelemente/Pixel und schweben in einem Ultraschallfeld zwischen zwei Ultraschallwandler-Arrays, die mit etwa 40 kHz betrieben werden. Grundlage der Levitation ist der Schallstrahlungsdruck – ein nichtlinearer Effekt, der bei ausreichend hoher Intensität leichte Objekte in der Luft halten kann.
Durch gezielte Phasen- und Amplitudensteuerung lassen sich die Partikel nicht nur stabilisieren, sondern auch entlang definierter Trajektorien bewegen. Mehrere solcher „3D-Pixel“ gleichzeitig zu kontrollieren ist komplex, aber Teil der Forschung.

Die schwebenden Partikel können etwa als dynamischer Cursor physische Objekte markieren oder in interaktiven Szenarien eingesetzt werden. Selbst einfache Spiele wie Pong sollen dem Vernehmen nach schon experimentell umgesetzt worden sein.
Darüber hinaus ermöglicht modulierte Ultraschallfokussierung auch Rückmeldungen taktiler Art: Ein auf die Handfläche gerichteter Strahl erzeugt – bei geeigneter Modulation etwa mit 200 Hz – spürbare Vibrationen. So lassen sich virtuelle, frei im Raum schwebende haptische Feedbackpunkte erzeugen.
Das Projekt orientiert sich am Konzept des „Ultimate Display“ von Ivan Sutherland und kombiniert akustische, visuelle und haptische Komponenten zu einem multimodalen Interaktionsraum.
Fazit
Das Symposium zeigte erneut, dass es beim Thema Pervasive Displays um weit mehr geht als um Displaytechnik im öffentlichen Raum. Im Mittelpunkt stehen nicht Auflösung oder Paneltechnologie, sondern Nutzungskontext, Wahrnehmung, Interaktion und gesellschaftliche Einbettung. Die Veranstaltung war damit weniger technikzentriert als vielmehr ideengetrieben, ohne den Anwendungsbezug aus den Augen zu verlieren.
Gefällt dir der Artikel?
Dann teile ihn mit deinen Freunden.
Benutze dafür unsere Links:




