新万博体育下载_万博体育app【投注官网】

图片

OC-Trust

Informationen

Projektstart: 01.10.2009
Projektende: 31.07.2017
Projekttr?ger: DFG
Projektverantwortung vor Ort: Prof. Dr. Elisabeth André,?
Beteiligte Wissenschaftliche MitarbeiterInnnen: M.Sc. Stepan Hammer, Dipl. Inf. Michael Wi?ner
Webseite: OC-Trust

?

?

? Universit?t Augsburg

?ber das Projekt

Zusammenfassung

Ziel der von der DFG gef?rderten Forschergruppe OC-Trust ist es, die Vertrauenswürdigkeit von Organic Computing Systemen zu verbessern, um so ihren Einsatz in offenen, heterogenen, sicherheitskritischen und nutzerzentrierten Szenarien zu erm?glichen. Weiterhin soll untersucht werden, inwieweit Trust als konstitutives Element von technischen Systemen zur Verbesserung ihrer Robustheit und Effizienz beitragen kann. Dazu werden Methoden, Modelle, Algorithmen und Benutzerschnittstellen entwickelt. Diese Techniken erlauben, Vertrauen beim Entwurf der Systeme zu berücksichtigen und diese auf ihre Vertrauenswürdigkeit hin zu untersuchen. Au?erdem erm?glichen sie, Vertrauen zur Laufzeit zu messen und die Systeme in Bezug auf verschiedene Vertrauensaspekte anzupassen.

?

Beschreibung

Kernmerkmal von OC-Systemen ist die F?higkeit, sich selbstst?ndig an ge?nderte Nutzungs- und Umgebungsbedingungen anpassen zu k?nnen. OC-Systeme stellen Entwickler von Bedienkonzepten damit allerdings vor eine besonders anspruchsvolle Aufgabe, da nicht davon ausgegangen werden kann, dass pl?tzliche und oftmals unerwartete Anpassungen stets selbsterkl?rend sind. Vielmehr besteht die Gefahr, dass Nutzer Anpassungen als nicht plausibel ansehen und nicht nachvollziehen k?nnen, warum sie durchgeführt wurden. Dies wiederum kann zu einem Vertrauensverlust des Nutzers und im schlimmsten Fall zu einer Ablehnung des Systems führen. Ziel des Lehrstuhls "Human Centered Multimedia" ist die Entwicklung von vertrauenswürdigen Nutzerschnittstellen, die diesen Herausforderungen gewachsen sind.

?

Zur Erreichung dieses Ziels wird auf der Grundlage von Bayes Netzen mit dem User Trust Model (UTM) ein Modell erarbeitet, dass es erm?glicht, Nutzervertrauen in einem OC-System systematisch zu messen, zu kontrollieren und durch ad?quate Systemaktionen wiederherzustellen. Ein Beispiel einer solchen Systemaktion w?re die Generierungen von Erkl?rungen, um die Transparenz des Systems zu verbesseren und dem Nutzer zu verdeutlichen, warum sich das System auf genau diese Weise angepasst hat.

?

Beispiel für ein UTM zum Schutz der Daten eines Nutzers bei der Nutzung eines ?ffentlichen Displays ? Universit?t Augsburg

?

?

Um Systemaktionen zum Einen m?glichst flexibel, zum Anderen aber auch im Rahmen gewisser Richtlinien, wie z.B. grundlegender Gestaltungsgesetze für Nutzerschnittstellen, durchführen zu k?nnen erfolgt die Umsetzung der Systemaktionen mit Hilfe eines Constraint-basierten Ansatzes, der es erlaubt, zur Designzeit harte und weiche Verhaltenskorridore für vertrauenswürdige Nutzerumgebungen festzulegen, deren Einhaltung dann zur Laufzeit automatisch überprüft wird.

?

Die entwickelten Methoden und Techniken werden anhand von hochdynamischen Demonstratoren bestehend aus heterogenen, beliebig kombinierbaren Interaktions- und Pr?sentationsger?ten evaluiert. Die von uns betrachteten Demonstratoren integrieren ?ffentliche Displays (sogenannte Public Screens), private und mobile Displays (Smartphones, Tablets) und semi-?ffentliche Displays, wie z.B. interaktive Tische (Microsoft Surface). Für die entstandene Systemklasse wurde der Begriff Trusted Display Grid, kurz TDG, eingeführt.

Suche