Kontextbezogene Datenschutzwarnungen


Auch bekannt als: Impactful Information and Feedback

Kurzinfo

Geben Sie Rückmeldung darüber, wem die Daten von Nutzenden mit bestimmten Datenschutzeinstellungen offengelegt werden, bevor diese Informationen tatsächlich veröffentlicht werden.

STRATEGIEN: Informieren

Kontext

Immer schneller werdende Lebensstile führen bei Nutzenden zu einer gewissen Hektik in Bezug auf die Nutzung von Diensten. Dieses Verhalten kann dazu führen, dass sich Nutzende möglicher Fehler beispielsweise beim automatischen Medienaustausch oder bei der Offenlegung von Informationen in ihren Beiträgen, nicht bewusst sind. Durch diese Fehler können persönlich identifizierbare Informationen oder andere unerwünschte Assoziationen offengelegt werden. Manchmal hängt es vom Publikum oder einem anderen kontextabhängigen Element ab, ob das Teilen einer Informationen als angemessen angesehen wird. Für die Datenverarbeitung Verantwortliche, die solchen Nutzenden ihre Dienste zur Verfügung stellen, kommen in solchen Fällen nicht gut weg, da sie implizit die Mittel zur Verfügung stellen. Daher gehen sie in solchen Fällen oft proaktiv vor.

Problem

Ein mangelndes Bewusstsein seitens eines Nutzenden kann zur vorschnellen Offenlegung von Informationen führen, egal ob diese Offenlegung manuell oder automatisch erfolgt.

Einflüsse und Bedenken

  • Nutzende wollen einen Dienst sofort und sinnvoll nutzen, setzen sich dabei aber Gefahren aus.
  • Viele Nutzende geben während der Nutzung eines Dienstes unbeabsichtigt Informationen preis, insbesondere wenn sie nicht vorsichtig sind.
  • Verantwortliche wollen nicht, dass die Nutzenden einen Dienst in einer Weise nutzen, der für sie Gefahren birg.
  • Die Verantwortliche wollen, dass Nutzende lernen, einen Dienst verantwortungsbewusst zu nutzen, ohne Fehler zu machen.

Lösung

Verwenden Sie kontextbezogene Datenschutzwarnungen, in Form von analytische Maßnahmen und Verläufen, um relevante Informationen und Vorschläge bezüglich ausstehender Offenlegungen zu liefern.

Implementierung

Analysieren Sie den Inhalt der zu teilenden Information durch Verarbeitung der natürlichen Sprache vor dem Einreichen von Beiträgen und unter der Voraussetzung, dass Nutzende kontextbezogenen Datenschutzwarnungen zugestimmt haben. Dies kann auch zusätzliche Metadaten beinhalten, wie z. B. Faktoren, die sich auf das erwartete Publikum beziehen, soziale Vergleiche mit ähnlichen Nutzenden oder solche, mit denen die fragliche Person in Verbindung gebracht wurde. Alle Nutzenden, von denen die Analyse abgeleitet wird, sollten zuvor ebenfalls ihre ausdrückliche, informierte und freiwillig erteilte Zustimmung gegeben haben.

Suchen Sie nach Zeichenketten, die auf einen sensiblen Inhalt in Bezug auf das zu erwartende Publikum hinweisen. Bei Nutzenden, die Warnungen missachten, sollten Sie darauf achten, künftige Vorhersagen durch eine Feedback-Schleife zu verbessern. Geben Sie Nutzenden eine Möglichkeit mittzuteilen, ob sie trotz des Ignorierens der Warnung, den Beitrag später bereut haben (oder erkennen Sie Löschungen, die dies implizieren), um false-positives von unnötigen Warnungen zu unterscheiden.

Eine Möglichkeit, das Verständnis der Nutzenden für die damit verbundenen Risiken zu erhöhen, besteht darin, anhand eines Beispiels eine Offenlegung zu demonstrieren, die der ungefähren Sensibilität oder kontextuellen Angemessenheit ihres Inhalts entspricht. Dabei muss es sich um ein Beispiel handeln, das die betreffende Person auch selbst ansehen könnte, um nicht versehentlich die Privatsphäre einer/s anderen Nutzenden zu verletzen. Dieser Ansatz ist anfällig für Ungenauigkeiten und müsste ebenfalls durch die Nutzenden selbst verbessert werden.

Der Algorithmus kann zunächst mit Hilfe von Text Mining aus Protokollen von Nutzenden trainiert werden, die sich für die zunächst experimentelle Funktion entschieden haben. Es können zwar – möglicherweise ungenaue – Annahmen getroffen werden, aber die Nutzenden könnten weiteres Feedback bezüglich später bereuter Eingaben oder kontextbezogener Angemessenheit geben. Welche Art des Lernens gewählt wird, hängt davon ab, über welche Informationen die Verantwortlichen zu diesem Zeitpunkt verfügen. Zu Beginn, wird die Implementierung wahrscheinlich weniger anspruchsvoll sein. Falls verfügbar, können die Lösungen so komplex sein wie ein auf Bestärkendem Lernen (reinforcement learning) basierter Klassifikationsalgorithmus.

Beispiele

Systeme können die Unsicherheit über Faktoren, die für Offenlegungsentscheidungen wichtig sind, verringern. Beispielsweise können Systeme in der Lage sein, das Publikum für eine bestimmte Offenlegung zum Zeitpunkt der Entscheidung abzuschätzen, wodurch die Unsicherheit verringert und die Entscheidungen der Nutzenden beeinflusst werden kann. Systeme könnten soziale Vergleiche nutzen, wie z. B. Entscheidungen, die von befreundeten Personen oder anderen Nutzenden in einem ähnlichen Kontext getroffen werden, um die Unsicherheit über relevante Normen für die Offenlegung zu verringern. Schließlich könnten Werkzeuge zur Darstellung wie Inhalte nach der Enthüllung von anderen Nutzenden gesehen werden, den Nutzenden helfen die Folgen ihres Handelns besser zu verstehen.

Auswirkungen

Durch die Anwendung dieses Patterns haben Nutzende, die sich dafür entscheiden, Inhalte zu teilen, eine bessere Vorstellung davon, was passieren könnte, wenn sie dies tun. Dies kann sich auf alle Informationen beziehen, die sie online stellen, und kann zeigen, wer was sehen kann. Dies kann sowohl vorteilhaft als auch nachteilig sein, da es bedeutet, dass Nutzende vorsichtiger sind und weniger teilhaben werden. Sie können auch Bedenken hinsichtlich der Vertrauenswürdigkeit des Algorithmus haben, der möglicherweise auf ihre Inhalte zugreift, bevor sie diese selbst für veröffentlichungsfähig halten.

Verwandte Patterns

Dieses Pattern ist ein Bestandteil des zusammengesetzten Pattern Hinweis auf Änderung der Verarbeitung. Als solches kann dieses Pattern von diesem verwendet werden.

Dieses Pattern ergänzt Verwendung Widerspiegeln, Sicherheits-Überprüfung bei ungewöhnlichen Vorgängen, Versehentliche Veröffentlichung verhindern und Vor Offenlegung sensibilisieren. Durch Sicherheits-Überprüfung bei ungewöhnlichen Vorgängen kann dieses Pattern Nutzende über Erkenntnisse informieren, die sich auf die Authentifizierung und Autorisierung auswirken können. Die Erweiterung dieses Pattern ist eine implizite Verbindung zu bewusst sicheren Passwörter, das von den ergänzenden und beeinflussenden Einsichten in Authentifizierungsentscheidungen profitiert. Als eine noch weitergehende Verbindung profitiert dieses Pattern in ähnlicher Weise von Auswahl von Anmeldedaten.

Lizenz:

Die textuelle Pattern-Beschreibung auf dieser Seite steht unter der Lizenz Creative Commons Namensnennung Uported (CC BY 3.0). Wenn Sie diese Beschreibung teilen, weiterverbreiten oder bearbeiten, so müssen Sie die Lizenzbestimmungen beachten, und als Namensnennung angeben „Privacy Patterns basierend auf den Sammlungen unter PrivacybyDesign.Digital und Privacy Patterns.org“ mit jeweiliger Verlinkung.
Die vorliegende Pattern-Beschreibung entstand durch Übersetzung der auf privacypatterns.org veröffentlichten Privacy Patterns.

Quellen:

S. Ahern, D. Eckles, N. Good, S. King, M. Naaman, and R. Nair, “Over-Exposed ? Privacy Patterns and Considerations in Online and Mobile Photo Sharing,” CHI ’07, pp. 357–366, 2007.