Jenseits der Unschärfe: Die kritische Lücke in der visuellen Anonymisierung, wenn einzigartige Merkmale die Identität enthüllen

Mateusz Zimoch
15.10.2025

Inhaltsverzeichnis

Visuelle Anonymisierungstechniken wie Gesichtsverwischung und Verpixelung galten lange Zeit als ausreichend zum Schutz von Identitäten in Bildern und Videos. Eine wachsende Anzahl vergleichender Studien zeigt jedoch eine beunruhigende Realität: Standardmethoden zur Anonymisierung schützen die Privatsphäre oft nicht vollständig, wenn es um einzigartige Identifikationsmerkmale geht. Moderne Computer-Vision- und Mustererkennnungssysteme können inzwischen charakteristische Merkmale erkennen und abgleichen, die bei traditioneller Anonymisierung übersehen werden.

Als Datenschutzexperte habe ich einen besorgniserregenden Trend beobachtet, bei dem vermeintlich anonymisierte visuelle Daten dennoch zur persönlichen Identifikation führen. Untersuchungen zeigen, dass selbst wenn Gesichter und Kennzeichen ordnungsgemäß maskiert sind, Elemente wie einzigartige Tattoos, auffällige Kleidung, Gangmuster oder sogar der Kontext des Bildes eine Reidentifizierung ermöglichen können. Dies stellt eine erhebliche Lücke in den aktuellen Anonymisierungspraktiken dar, die geschlossen werden muss, um eine echte DSGVO-Konformität und wirksamen Datenschutz zu gewährleisten.

Collage aus schwarz-weißen Gesichtszügen, einschließlich Augen, Nase und Lippen, überlagert auf dem Gesicht einer Frau mit langen Haaren.

Warum sind traditionelle Bild-Anonymisierungstechniken unzureichend?

Traditionelle Anonymisierungstechniken wie Unschärfe und Verpixelung konzentrieren sich hauptsächlich auf offensichtliche Identifikationsmerkmale wie Gesichter und Kennzeichen. Während diese Methoden diese spezifischen Elemente effektiv maskieren, basieren sie auf der veralteten Annahme, dass das Entfernen von Gesichtsmerkmalen für den Datenschutz ausreichend ist.

Moderne Deep-Learning-Algorithmen können inzwischen Kontextinformationen, Hintergrunddetails und einzigartige körperliche Merkmale nutzen, um Personen selbst in anonymisierten Datensätzen zu identifizieren. Eine vergleichende Studie der Universität Oxford zeigte beispielsweise, dass Standardunschärfemethoden genügend Daten erhielten, damit KI-Systeme 68% der Personen in einem vermeintlich anonymisierten Datensatz korrekt identifizieren konnten.

Dieser technologische Fortschritt stellt eine erhebliche Herausforderung für Organisationen dar, die versuchen, Datenschutzbestimmungen einzuhalten, während sie visuelle Daten nutzen.

Blurred silhouette of a person behind vertical lines, creating a distorted and abstract visual effect on a light background.

Wie gefährden einzigartige Merkmale den Identitätsschutz in visuellen Daten?

Einzigartige Merkmale innerhalb visueller Daten dienen als starke Identifikatoren, die oft traditionellen Anonymisierungsprozessen entgehen. Dazu können markante Tattoos, Narben, körperliche Attribute, Kleidungsmuster oder sogar die Art, wie jemand geht, gehören. Während die Standardanonymisierung sich auf Gesichter konzentriert, bleiben diese sekundären Identifikatoren unberührt und für Analysen verfügbar.

Betrachten Sie Überwachungsaufnahmen, bei denen das Gesicht einer Person ordnungsgemäß unkenntlich gemacht wurde. Wenn diese Person ein charakteristisches Gangbild oder ein einzigartiges Kleidungsstück hat, können Computer-Vision-Algorithmen diese Merkmale mit anderen Aufnahmen abgleichen, in denen die Person vorkommt. Diese Fähigkeit untergräbt effektiv die Anonymisierungsbemühungen, die auf die ursprünglichen Daten angewendet wurden.

Die Kombination mehrerer Teilidentifikatoren kann eine einzigartige Signatur erstellen, die eine Reidentifizierung ermöglicht, selbst wenn jedes einzelne Merkmal für sich genommen unbedeutend erscheinen mag.

Blurred black and white image of a person with motion blur effect, creating a ghostly appearance.

Welche DSGVO-Implikationen hat eine unvollständige Bildanonymisierung?

Die Datenschutz-Grundverordnung (DSGVO) legt strenge Standards für die Verarbeitung personenbezogener Daten fest, einschließlich visueller Informationen. Artikel 4 definiert personenbezogene Daten als alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Wenn Ihre Anonymisierungstechnik nicht verhindert, dass eine Identifizierung durch einzigartige Merkmale möglich ist, bleiben die Daten nach der DSGVO personenbezogene Daten.

Dies schafft erhebliche rechtliche Risiken. Organisationen, die fälschlicherweise glauben, mit anonymisierten Daten zu arbeiten, verarbeiten möglicherweise unbeabsichtigt personenbezogene Informationen ohne angemessene Schutzmaßnahmen und verstoßen damit potentiell gegen mehrere DSGVO-Bestimmungen bezüglich rechtmäßiger Verarbeitung, Datenminimierung und Sicherheitsanforderungen.

Die Konsequenzen können schwerwiegend sein, mit Bußgeldern von bis zu 20 Millionen Euro oder 4% des weltweiten Jahresumsatzes. Neben finanziellen Strafen gibt es auch erhebliche Reputationsschäden, wenn Datenschutzverletzungen aufgrund unzureichender Anonymisierung auftreten.

Schatten einer Person mit Sonnenbrille auf einem gestreiften Stoffhintergrund, der einen abstrakten und künstlerischen Effekt erzeugt.

Wie können Computer Vision und Mustererkennung Anonymisierungsbemühungen untergraben?

Fortschrittliche Computer-Vision-Algorithmen sind hervorragend darin, Muster zu erkennen und Objekte in visuellen Inhalten zu identifizieren. Diese Fähigkeiten haben sich mit den jüngsten Entwicklungen bei Deep-Learning-Modellen dramatisch weiterentwickelt. Moderne Systeme können jetzt:

  • Personen anhand von Körperproportionen und -formen erkennen
  • Menschen anhand von Teilinformationen wie Gang oder Haltung identifizieren
  • Kleidung oder Accessoires über verschiedene Bilder hinweg abgleichen
  • Verschwommene oder verpixelte Inhalte mithilfe von prädiktiver Modellierung rekonstruieren

Eine vergleichende Studie von MIT-Forschern aus dem Jahr 2022 zeigte, dass kommerzielle Erkennungssysteme in über 40% der Fälle, in denen Standardanonymisierung auf Gesichter angewendet wurde, Personen erfolgreich identifizieren konnten. Die Algorithmen nutzten periphere visuelle Hinweise, die in den anonymisierten Daten intakt blieben.

Diese technologische Realität bedeutet, dass Organisationen ausgereiftere Ansätze zur Anonymisierung visueller Daten einsetzen müssen, wenn sie die Privatsphäre wirklich schützen wollen.

Person mit einem runden Spiegel, der ihr Gesicht verdeckt, der einen verschwommenen Hintergrund reflektiert und ein dunkles Outfit trägt. Schwarz und Weiß.

Welche umfassenden Bildanonymisierungslösungen schließen diese Lücken?

Eine umfassende Bildanonymisierung erfordert einen mehrschichtigen Ansatz, der über einfache Unschärfe oder Verpixelung hinausgeht. Fortschrittliche Lösungen wie Gallio PRO implementieren eine ganzheitliche Anonymisierung, die alle potenziell identifizierenden Elemente in visuellen Daten adressiert, nicht nur primäre Identifikatoren.

Effektive Lösungen umfassen:

  • KI-gestützte Erkennung einzigartiger Merkmale jenseits von Gesichtern
  • Kontextbewusste Verarbeitung, die Umgebungsinformationen berücksichtigt
  • Selektive Schwärzung, die den analytischen Wert erhält, während Identifikatoren eliminiert werden
  • Automatisierte Erkennung und Maskierung von charakteristischen physischen Attributen

Diese umfassenden Ansätze stellen sicher, dass die Anonymisierung wirklich effektiv ist, selbst gegen ausgereifte Reidentifikationstechniken. Organisationen, die große Datensätze verarbeiten, profitieren besonders von automatisierten Lösungen, die konsistent alle potenziellen Identifikatoren erkennen und maskieren können. Entdecken Sie Gallio PRO, um zu sehen, wie fortschrittliche Anonymisierung die Privatsphäre schützen kann, während der Datennutzen erhalten bleibt.

Silhouette of a person reflected in a glass window, with circular stickers visible and a cityscape in the background.

Wie wirken sich verschiedene Arten einzigartiger Merkmale auf das Reidentifikationsrisiko aus?

Verschiedene einzigartige Merkmale tragen unterschiedlich stark zum Reidentifikationsrisiko bei. Basierend auf aktuellen Forschungen in Computer Vision und Mustererkennung können wir diese Merkmale nach ihrem Identifikationspotenzial kategorisieren:

Physische Attribute wie Tattoos, markante Narben oder einzigartige körperliche Merkmale stellen das höchste Risiko dar. Diese Merkmale sind oft permanent und hochgradig charakteristisch. Eine Studie aus dem Jahr 2021 ergab, dass sichtbare Tattoos allein in über 80% der Fälle eine Identifikation ermöglichen können, selbst wenn Gesichter gründlich anonymisiert wurden.

Verhaltensmuster wie Gang, Haltung oder charakteristische Bewegungen bilden eine sekundäre, aber dennoch signifikante Risikokategorie. Diese können über mehrere Bilder oder Videoframes hinweg analysiert werden, um identifizierende Profile zu erstellen. Moderne Deep-Learning-Modelle sind bemerkenswert gut darin geworden, Personen ausschließlich anhand ihrer Bewegungsart zu erkennen.

Kontextinformationen, einschließlich Ortsmustern, zugehörigen Personen oder regelmäßigen Aktivitäten, stellen eine dritte Risikostufe dar. Diese Informationen ermöglichen eine Identifikation durch Korrelation und Musteranalyse anstatt durch direkte visuelle Erkennung.

Person holding a camera displaying an eye on its screen, set against a dark background.

Was sind die besten Praktiken, um Privatsphäre zu wahren und gleichzeitig Datennutzen zu erhalten?

Die Balance zwischen Privatsphärenschutz und dem Erhalt nützlicher Daten stellt eine erhebliche Herausforderung dar. Optimale Ansätze variieren je nach spezifischem Anwendungsfall, aber mehrere Prinzipien gelten durchgängig:

Erstens, implementieren Sie eine risikobasierte Anonymisierung, die aggressivere Techniken auf Hochrisikoelemente anwendet, während der analytische Wert anderswo erhalten bleibt. Dieser Ansatz erhält die Nützlichkeit des Datensatzes, während er sicherstellt, dass sensible Daten angemessen geschützt werden.

Zweitens, berücksichtigen Sie den Zweck der Datenverarbeitung und wenden Sie Techniken an, die wesentliche Informationen für diesen spezifischen Zweck bewahren. Wenn beispielsweise Menschenmengen analysiert werden, können individuelle Identitäten vollständig entfernt werden, während Bewegungsmuster und allgemeine demografische Daten erhalten bleiben.

Drittens, nutzen Sie fortschrittliche Technologien wie die Erzeugung synthetischer Daten, die repräsentative, aber völlig fiktive visuelle Inhalte basierend auf realen Datensätzen erstellen. Dieser Ansatz eliminiert das Reidentifikationsrisiko vollständig, während die statistische Relevanz erhalten bleibt. Kontaktieren Sie uns, um mehr über die Implementierung dieser Praktiken zu erfahren.

Staubiger runder Spiegel, der ein verschwommenes Gesicht reflektiert, auf einem Regal neben einem Glas in einem schwach beleuchteten Raum. Schwarz-Weiß-Bild.

Wie handhaben sensible Branchen wie das Gesundheitswesen die visuelle Datenanonymisierung?

Gesundheitsorganisationen stehen vor besonders komplexen Herausforderungen bei der visuellen Datenanonymisierung aufgrund der hochsensiblen Natur von Gesundheitsdaten und der Notwendigkeit, kritische medizinische Informationen zu bewahren. Patientendaten in der medizinischen Bildgebung erfordern eine besondere Behandlung sowohl nach der DSGVO als auch nach speziellen Gesundheitsvorschriften.

Führende Gesundheitseinrichtungen implementieren spezielle Anonymisierungsprotokolle für verschiedene Arten visueller Inhalte:

  • Klinische Fotografie - Einsatz umfassender Anonymisierung, die alle identifizierbaren Merkmale maskiert, während medizinisch relevante Informationen erhalten bleiben
  • Überwachungsaufnahmen - Anwendung vollständiger Anonymisierung mit Echtzeit-Verarbeitung vor der Speicherung
  • Forschungsbilder - Implementierung gestaffelter Zugriffskontrollen in Kombination mit angemessener Anonymisierung basierend auf dem Nutzungskontext

Die Johns Hopkins Medicine entwickelte beispielsweise ein umfassendes Framework, das verschiedene Anonymisierungsmethoden basierend auf dem spezifischen Kontext und Zweck medizinischer Bilder anwendet. Ihr Ansatz gewährleistet die Einhaltung von Datenschutzbestimmungen bei gleichzeitiger Beibehaltung des klinischen Werts visueller Daten.

Eine Person mit Brille wird von einem horizontalen Lichtstrahl in einer dunklen, strukturierten Umgebung beleuchtet, wodurch eine futuristische und geheimnisvolle Atmosphäre entsteht.

Wie balancieren Organisationen Sicherheitsüberwachungsbedürfnisse mit Datenschutz?

Überwachungssysteme stellen eine besondere Herausforderung für den Datenschutz dar, da ihre Hauptfunktion darin besteht, visuelle Daten zu erfassen und zu analysieren, die identifizierbare Informationen enthalten können. Organisationen müssen Sicherheitsanforderungen sorgfältig mit Datenschutzverpflichtungen abwägen.

Führende Ansätze umfassen die Implementierung von Privacy-by-Design-Prinzipien, die den Schutz direkt in Überwachungs-Workflows integrieren. Dies beinhaltet:

  • Automatische Echtzeit-Anonymisierung nicht relevanter Personen im Bildmaterial
  • Rollenbasierte Zugriffskontrollen, die einschränken, wer nicht maskierte Inhalte sehen kann
  • Zeitliche Beschränkungen, die automatisch das Anonymisierungsniveau erhöhen, je älter das Bildmaterial wird
  • Selektive Aufzeichnung, die nur sicherheitsrelevante Bereiche erfasst

Organisationen wie Verkehrsbehörden haben diese ausgewogenen Ansätze erfolgreich implementiert. Das deutsche Eisenbahnnetz wendet beispielsweise automatisierte Anonymisierung auf ihre Überwachungssysteme an, wobei eine De-Anonymisierung nur erlaubt ist, wenn spezifische rechtliche Schwellenwerte für den Zugriff erfüllt sind.

Schwarzweißfoto einer Person, die durch ein Fenster fotografiert, mit Autos und Graffiti im Hintergrund.

Welche rechtlichen Rahmenbedingungen regeln die Bildanonymisierung über die DSGVO hinaus?

Während die DSGVO den primären Rahmen für den Datenschutz in der EU bietet, gibt es weltweit verschiedene andere Rechtsinstrumente, die die visuelle Datenanonymisierung regeln:

Der California Consumer Privacy Act (CCPA) und sein Nachfolger, der California Privacy Rights Act (CPRA), legen spezifische Anforderungen für die Verarbeitung biometrischer Informationen fest, einschließlich visueller Identifikatoren. Diese Vorschriften bieten kalifornischen Einwohnern ähnliche Schutzmaßnahmen wie die DSGVO in Europa.

Branchenspezifische Vorschriften fügen in bestimmten Sektoren zusätzliche Anforderungen hinzu. Der Health Insurance Portability and Accountability Act (HIPAA) in den USA etabliert beispielsweise strenge Richtlinien für den Umgang mit Patientenbildern und visuellen Gesundheitsdaten.

Internationale Standards wie ISO/IEC 27701 bieten technische Spezifikationen für das Datenschutzinformationsmanagement, einschließlich Richtlinien zur Anonymisierung visueller Inhalte. Diese Standards prägen oft sowohl die regulatorische Compliance als auch Best Practices über Jurisdiktionen hinweg.

Eine Person mit verschwommenem Gesicht steht vor einer Stadtsilhouette bei Nacht, mit Bokeh-Lichtern im Hintergrund. Schwarzweißbild.

Wie können Organisationen die Effektivität ihrer Anonymisierungsmethoden testen?

Das Testen der Anonymisierungseffektivität erfordert einen systematischen Ansatz, der den Schutz aus mehreren Blickwinkeln herausfordert. Verantwortungsvolle Organisationen implementieren regelmäßige Testprotokolle, um sicherzustellen, dass ihre Anonymisierungstechniken gegenüber sich weiterentwickelnden Erkennungsfähigkeiten wirksam bleiben.

Effektive Teststrategien umfassen:

  • Gegnerisches Testen mit aktuellen Computer-Vision-Algorithmen, um Reidentifikation zu versuchen
  • Regelmäßige Penetrationstests durch spezialisierte Datenschutz- und Sicherheitsexperten
  • Statistische Analyse zur Messung der Wahrscheinlichkeit einer Reidentifikation aus anonymisierten Datensätzen
  • Differential-Privacy-Messung zur Quantifizierung von Informationslecks

Organisationen sollten einen regelmäßigen Testzyklus etablieren, um ihre Anonymisierungstechniken gegen die neuesten Erkennungstechnologien zu evaluieren. Dieser Ansatz hilft, aufkommende Schwachstellen zu identifizieren, bevor sie ausgenutzt werden können. Laden Sie eine Demo herunter, um zu sehen, wie robustes Testen Ihre Anonymisierungseffektivität validieren kann.

A blurred, monochromatic image of a face with light and shadow patterns obscuring the features, creating a mysterious effect.

Welche zukünftigen Entwicklungen werden die visuelle Datenanonymisierung beeinflussen?

Die Landschaft der visuellen Anonymisierung entwickelt sich rapide weiter, getrieben durch Fortschritte sowohl in Identifikations- als auch in Datenschutztechnologien. Mehrere aufkommende Entwicklungen werden zukünftige Ansätze prägen:

Adversariales maschinelles Lernen entwickelt Techniken, die aktuelle Anonymisierungsmethoden umgehen können, indem sie ursprüngliche Inhalte aus anonymisierten Daten rekonstruieren. Diese Fortschritte werden ausgeklügeltere Schutztechniken erforderlich machen, die potenzielle Rekonstruktionsangriffe berücksichtigen.

Federated-Learning-Ansätze ermöglichen es Organisationen, Erkenntnisse aus visuellen Daten zu gewinnen, ohne die ursprünglichen Inhalte zu zentralisieren, wodurch möglicherweise in einigen Kontexten der Bedarf an traditioneller Anonymisierung reduziert wird. Dies stellt eine Verlagerung vom Maskieren von Identifikatoren hin zu einer grundlegenden Änderung der Verarbeitung visueller Daten dar.

Regulatorische Rahmenbedingungen entwickeln sich weiter, mit zunehmendem Schwerpunkt auf nachweisbarer Wirksamkeit anstatt einfacher Anwendung von Standardtechniken. Diese Verschiebung wird von Organisationen verlangen, ihre Anonymisierungsmethoden zu validieren und zu beweisen, dass sie tatsächlich eine Identifikation verhindern.

Verschwommene Silhouette einer Person in dunkler Kleidung, die sich an eine strukturierte Wand lehnt, während das Licht Schatten wirft.

FAQ

Was ist der Unterschied zwischen Anonymisierung und Pseudonymisierung visueller Daten?

Anonymisierung verändert visuelle Daten permanent, um die Identifikation von Personen zu verhindern, wodurch der Prozess irreversibel wird. Pseudonymisierung ersetzt hingegen identifizierbare Elemente durch künstliche Identifikatoren, die mit zusätzlichen, separat aufbewahrten Informationen umgekehrt werden können. Gemäß DSGVO fallen nur wirklich anonymisierte Daten außerhalb des Geltungsbereichs der Verordnung, während pseudonymisierte Daten weiterhin als personenbezogene Daten betrachtet werden, die allen Anforderungen unterliegen.

Kann KI-gestützte Gesichtserkennung Standardunschärfetechniken überwinden?

Ja, fortschrittliche KI-Gesichtserkennungssysteme können manchmal Standard-Unschärfetechniken überwinden, indem sie periphere Merkmale, Gesichtsstruktur-Umrisse oder Kontextinformationen innerhalb des Bildes analysieren. Eine Studie der Universität Toronto zeigte, dass kommerzielle Gesichtserkennungssoftware Personen in bis zu 35% der Bilder identifizieren konnte, die mit traditionellen Unschärfemethoden bearbeitet wurden.

Wie beeinflusst Gangerkennung Videoanonymisierungsstrategien?

Gangerkennung analysiert das Bewegungsmuster einer Person, um sie zu identifizieren, was durch standardmäßige Gesichtsverschleierung nicht berücksichtigt wird. Diese Technologie kann Personen in manchen Szenarien mit bis zu 90% Genauigkeit identifizieren, selbst wenn Gesichter vollständig maskiert sind. Effektive Videoanonymisierung muss daher Techniken beinhalten, die neben Gesichtsmerkmalen auch Bewegungsmuster maskieren oder verändern.

Gibt es spezifische Anonymisierungsanforderungen für Bildmaterial von Strafverfolgungsbehörden?

Bildmaterial von Strafverfolgungsbehörden erfordert typischerweise spezialisierte Anonymisierungsansätze, die Transparenz mit Privatsphäre und Ermittlungsintegrität in Einklang bringen. Die meisten Rechtsordnungen verlangen die Anonymisierung von Unbeteiligten, Minderjährigen und Opfern, während die Identifizierbarkeit von Verdächtigen unter geeigneten Umständen erhalten bleibt. Spezifische Anforderungen variieren je nach Rechtsordnung, umfassen aber in der Regel strenge Zugriffskontrollen und Dokumentation darüber, wer ungeschwärztes Material einsehen darf.

Welche Risiken schaffen soziale Medienplattformen für die visuelle Anonymisierung?

Soziale Medienplattformen schaffen erhebliche Herausforderungen für die visuelle Anonymisierung aufgrund der umfangreichen Vergleichsdatensätze, die sie pflegen, und ihrer fortschrittlichen Erkennungsalgorithmen. Selbst wenn ein Bild ordnungsgemäß für die Veröffentlichung anonymisiert wird, könnten einzigartige Merkmale mit ungeschützten Bildern in sozialen Medien abgeglichen werden, um Personen zu identifizieren. Zusätzlich begleiten Metadaten und kontextuelle Informationen oft Bilder auf diesen Plattformen, was die Identifizierung trotz visueller Anonymisierung weiter ermöglicht.

Wie unterscheidet sich die Anonymisierung bei Live-Video-Streams von gespeichertem Bildmaterial?

Die Anonymisierung von Live-Video-Streams steht vor zusätzlichen Herausforderungen aufgrund der Anforderungen an die Echtzeit-Verarbeitung. Sie muss mit minimaler Latenz arbeiten und gleichzeitig unter verschiedenen Bedingungen zuverlässig sein. Die Anonymisierung gespeicherter Aufnahmen kann rechenintensivere Methoden einsetzen und ermöglicht eine Qualitätsprüfung vor der Veröffentlichung. Live-Anonymisierung priorisiert typischerweise Verarbeitungsgeschwindigkeit und Zuverlässigkeit, manchmal auf Kosten der Anonymisierungspräzision, die mit gespeicherten Inhalten erreicht werden könnte.

Ein dreidimensionales weißes Fragezeichen steht aufrecht auf einer grauen Oberfläche und wirft einen Schatten an die dahinterliegende Wand.

Referenzliste

  1. Europäisches Parlament und Rat. (2016). Datenschutz-Grundverordnung (DSGVO). Verordnung (EU) 2016/679. Newton, E.M., Sweeney, L., & Malin, B. (2005). Preserving privacy by de-identifying face images. IEEE Transactions on Knowledge and Data Engineering, 17(2), 232-243. Hill, K. (2020). The Secretive Company That Might End Privacy as We Know It. The New York Times. Artikel-29-Datenschutzgruppe. (2014). Stellungnahme 05/2014 zu Anonymisierungstechniken. Hasan, R., Hassan, E., Li, Y., Caine, K., Crandall, D. J., Hoyle, R., & Kapadia, A. (2018). Viewer Experience of Obscuring Scene Elements in Photos to Enhance Privacy. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. Information Commissioner's Office. (2021). Anonymisation: managing data protection risk code of practice. California Civil Code. (2018). California Consumer Privacy Act of 2018 [1798.100 - 1798.199.100].