Kurzinfo
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
STRATEGIEN: Kontrolle überlassen
Kontext
Nutzende
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
Problem
Ein Alles-oder-Nichts-Mindset
Für die Verarbeitung Verantwortliche sind versucht, die Einwilligung als allumfassend zu betrachten, sowie personenbezogene Daten als verfügbare Daten zur Nutzung und das Fehlen dieser Daten als Hindernis für die Dienstleistung zu betrachten. Diese Denkweise reduziert die Akzeptanz des Angebots und kann zu mangelndem Vertrauen führen.
Lösung
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
Begründung
Der Schlüssel zu einer erfolgreichen Lösung liegt in der richtigen Balance zwischen der Informationsmenge, die das System wenigstens benötigt und dem, was leistungstechnisch umsetzbar ist. Dies wird sich auf die Anwendbarkeit des Systems auswirken; ein System, das optional mit weniger Informationen funktioniert, wird weit mehr Nutzende anziehen. Dies erhöht die Popularität des Systems und gleicht daher einen gewissen Betrag an zusätzlichen Implementierungskosten aus.
Implementierung
Anonyme Verwendung
In einem gewissem Umfang kann es möglich sein, anonym von dem System zu profitieren, ob dies jedoch umsetzbar ist, hängt vom Grad des Missbrauchs ab, den eine anonyme Nutzung ermöglichen könnte. Alternativ kann dies aus der Perspektive der aufhebbaren Privatsphäre angegangen werden. Das heißt, vorläufige oder erodierende Anonymität. Wenn dies jedoch zu einem nicht tragfähigen Geschäftsmodell führen würde, könnte eine Neugewichtung der Nutzbarkeit ausreichend sein.
Es ist wichtig zu beachten, dass eine anonyme Nutzung zwar nicht unbedingt zu einem direkten Gewinn führt, dass aber zusätzliche Mitwirkende und eine positive öffentliche Wahrnehmung die Aktivität insgesamt erhöhen können.
Darüber hinaus gibt es Zahlungsmethoden, die bei Bedarf ein gewisses Maß an Anonymität unterstützen.
Annahme der Bescheidenheit
Wenn Nutzende sich für eine Registrierung entscheiden, sollte nicht davon ausgegangen werden, dass sie alle Dienste des Systems nutzen wollen. Abgesehen davon, wenn sie sich ausdrücklich für „Best Experience-Einstellungen“ entscheiden (mit ausreichender Erklärung; nicht die Standardoption), sollten die Einstellungen auf die datenschutzfreundlichste Konfiguration voreingestellt werden.
Es gibt zahlreiche Strategien zur Rationalisierung des Präferenzschneideprozesses, einschließlich einer allmählichen Erhöhung, wenn Nutzende beginnen, die Dienste zu verwenden (siehe Hinweis auf Änderung der Verarbeitung und Rechtsgültige Einwilligungen einholen).
Das Recht zu Überdenken
Entscheidungen sollten änderbar sein. Beispielsweise kann eine Vereinbarung über die gemeinsame Nutzung von Aktivitäten mit anderen Nutzenden nicht auf alle zukünftigen Nutzungen übertragen werden. Nutzende können sich entscheiden, etwas ab und zu oder regelmäßig, aber nicht immer, zu teilen. Das System sollte in der Lage sein, dieses Verhalten zu berücksichtigen, wenn es darauf abzielt, Fehlhandlungen zu verhindern.
Schauen Sie, bevor Sie springen
In Situationen, in denen persönliche Daten angefordert werden, insbesondere wenn dies notwendig ist, sollten sich Nutzende vor ihrer Zustimmung darüber im Klaren sein. Diese Dienste sollten auch nicht mit anderen Diensten mit niedrigeren Anforderungen gekoppelt werden, es sei denn, dies lässt sich nicht vermeiden. Wenn von Nutzenden verlangt wird, das System zu benutzen, sollten keine unnötigen Informationen verwendet werden.
In einem Beispiel zur Verfolgung der Produktivität kann dies bedeuten, dass Nutzende nur dann identifiziert werden, wenn ihre Produktivität sinkt oder wenn sie sich vielleicht dafür entscheiden, für ihre Arbeit eine Anerkennung erhalten zu wollen.
Beispiele
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
Auswirkungen
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
Verwandte Patterns
Dienste sollen eine selektive Offenlegung unterstützen, indem sie die Funktionalität so anpassen, dass sie mit der Datenmenge arbeiten, die Nutzende bereit sind zu teilen.
Lizenz:
Die textuelle Pattern-Beschreibung auf dieser Seite steht unter der Lizenz Creative Commons Namensnennung Uported (CC BY 3.0). Wenn Sie diese Beschreibung teilen, weiterverbreiten oder bearbeiten, so müssen Sie die Lizenzbestimmungen beachten, und als Namensnennung angeben „Privacy Patterns basierend auf den Sammlungen unter PrivacybyDesign.Digital und Privacy Patterns.org“ mit jeweiliger Verlinkung.
Die vorliegende Pattern-Beschreibung entstand durch Übersetzung der auf privacypatterns.org veröffentlichten Privacy Patterns.
Quellen:
S. Ahern, D. Eckles, N. Good, S. King, M. Naaman, and R. Nair, “Over-Exposed ? Privacy Patterns and Considerations in Online and Mobile Photo Sharing,” CHI ’07, pp. 357–366, 2007.
H. Baraki et al., Towards Interdisciplinary Design Patterns for Ubiquitous Computing Applications. Kassel, Germany, 2014.
E. S. Chung, J. I. Hong, J. Lin, M. K. Prabaker, J. a. Landay, and A. L. Liu, “Development and Evaluation of Emerging Design Patterns for Ubiquitous Computing,” DIS ’04 Proceedings of the 5th conference on Designing interactive systems: processes, practices, methods, and techniques, pp. 233–242, 2004.
G. Iachello and J. Hong, “End-User Privacy in Human-Computer Interaction,” Foundations and Trends in Human-Computer Interaction, vol. 1, no. 1, pp. 1–137, 2007.
J. Porekar, A. Jerman-Blažič, and T. Klobučar, “Towards organizational privacy patterns,” Proceedings – The 2nd International Conference on the Digital Society, ICDS 2008, 2008.
S. Romanosky, A. Acquisti, J. Hong, L. F. Cranor, and B. Friedman, “Privacy patterns for online interactions,” Proceedings of the 2006 conference on Pattern languages of programs – PLoP ’06, p. 1, 2006.
T. Schümmer, and J. M. Haake (2001). “Supporting distributed software development by modes of collaboration,” in Proceedings of ECSCW 2001, Bonn.
T. Schümmer, “The Public Privacy – Patterns for Filtering Personal Information in Collaborative Systems,” in Proceedings of CHI workshop on Human-Computer-Human-Interaction Patterns, 2004.