Zum Inhalt springen

„Menschen, Daten, Sensationen – Rudis Bericht aus dem Datenzirkus, ergänzt um Franks Zugabe (KW 01/2025)“ – Die DVD-Edition

Hier ist der 19. Blog-Beitrag „Menschen, Daten, Sensationen – Rudis Bericht aus dem Datenzirkus, ergänzt um Franks Zugabe (KW 01/2025)“ – Die DVD-Edition.

Die erste Ausgabe des Jahres 2025. Wir wünschen Ihnen alles Gute fürs neue Jahr!

  1. Aufsichtsbehörden
    1. DSK: Menschenzentrierte Digitalisierung in der Daseinsvorsorge
    2. LfDI Mecklenburg-Vorpommern: Die „ePA für alle“ – Was Versicherte jetzt wissen sollten
    3. LDI NRW: Fünf Fragen, fünf Antworten
    4. LfDI Baden-Württemberg: Rückblick und Ausblick im Podcast
    5. ICO: Leitfäden zu Fragen rund um die Anonymisierung
  2. Rechtsprechung
    1. VG Bremen: Anforderungen an Löschnachweis
    2. VG Wiesbaden: Zulässigkeit biometrischer Daten in Ausweisen
    3. EuG-Vorschau: Drittstaatentransfer über Webseite der EU-Kommission (T-354/22)
    4. EuGH-Vorschau: Geschlechtliche Anrede (C-394/23)
    5. EuGH-Vorschau: Exzessive Anfragen an die Datenschutzaufsicht (C-416/23)
    6. EuGH-Vorschau: Anforderungen an Nachweis der Anonymisierung (C-413/23 P)
  3. Gesetzgebung
    1. UN: Cybercrime-Konvention
    2. DORA: Endspurt
    3. Ideen für ein künftiges Digitalministerium
    4. Postmodernisierungsgesetz
  4. Künstliche Intelligenz und Ethik
    1. FPF: Infografik zur KI-Governance
    2. Dauer der Erstellung der Standards durch CEN-CELENEC zur KI-VO
    3. Umweltbelastungen durch KI
    4. „Der Rohstoff der KI sind wir“
    5. Tool zur Option vom KI-Training ausgenommen zu werden: OpenAI liefert nicht
    6. EWC: KI-Leitfaden für den Buchsektor
    7. KI-Systeme und Gewährleistungsrecht
    8. Auswirkungen der KI-VO auf Verfahren der automatisierten Datenanalyse
    9. Anforderungen an die Erklärbarkeit von KI
    10. BSI: Whitepaper zur Erklärbarkeit von KI im adversarialen Kontext
    11. MIT Technology Review: Mit KI gegen KI?
    12. ISO 42001:2023 AI Management System accredited certification
    13. Leitfaden Digitale Verwaltung: KI, Ethik und Recht
  5. Veröffentlichungen
    1. EPIC: Reformbedarf einer Folgenabschätzung in den USA
    2. Podcast zum Thema „Datenmissbrauch“
    3. Podcast zum Thema Cyberangriffe
    4. c´t-Security-Checklisten 2025
    5. Zusammenfassung der Opinion 28/2024 des EDSA
    6. Was gab´s beim 38. CCC?
      1. Digitalisierung mit der Brechstange – was noch tun, wenn nur offline geht?
      2. Hacking yourself a Satellite
      3. Modernisierung des Computerstrafrechts – oder etwa nicht?
    7. Veranstaltungen
      1. Niedersachsen.next: „Sexroboter: Wenn KI verführt“
      2. Universität des Saarlandes: Technischer Datenschutz
      3. Stiftung Datenschutz: Datenschutz am Mittag – 2025: Schwerpunkte und Herausforderungen in der Datenschutzpolitik -neu-
      4. Universität Passau – Distinguished Lecture: Haftung für unsichere Software
      5. Universität des Saarlandes – Datenschutz in der Praxis: „Datenverarbeitung im Ausland – What to do“ -neu-
      6. eco-Verband – Open Talk „NIS2 – Was tun?“ -neu-
      7. CNIL: Schutz der Stimme und des Bildes im Zeitalter der KI -neu-
      8. CPDP – Data Protection Day
      9. Universität des Saarlandes – Datenschutz in der Praxis: „Entwurf eines Beschäftigtendatengesetzes“ -neu-
      10. EDPS: Data Protection Day 2025
      11. Fachkonferenz und Preisverleihung CDR-Award 2024
      12. EAID: Exportschlager AI Act
      13. Weizenbaum-Institut: Dialogreihe KI-VO – Wege zur Umsetzung
      14. Stiftung Datenschutz: Datenschutz am Mittag – Die Position des EDSA zu Datenschutz und KI-Modellen -neu-
      15. BSI: 1. IT-Grundschutztag 2025
      16. Universität der Bundeswehr München / Austrian Institute of Technology: „Exercise Contain“ – Rahmenwerk zur Bewältigung von Cybervorfällen
  6. Gesellschaftspolitische Diskussionen
    1. Apple und Vorwürfe der Mitarbeiterüberwachung
    2. Apple und die Beendigung eines Rechtsstreits
    3. Apple und der Zugriff auf Bilder in iOS 18
    4. Selbstversuchs-Studie zu TikTok
    5. Endlich: Meta bekennt Farbe …
  7. Sonstiges / Blick über den Tellerrand
    1. Einsatz der Spähsoftware Pegasus
    2. Plattformverfahren
    3. EDRi: Bedenken bei biometrischen Reisepässen
    4. KI und Bundestagswahl
    5. AG KRITIS und Wahlprüfsteine
    6. Datenschutz als Voraussetzung gegen autoritäre Staaten
    7. UK: Maßnahmen gegen Verstöße von Social-Media-Plattformen
    8. USA: Musk und Sicherheit
    9. GI zur digitalen Souveränität und den Ergebnissen der Ampel
    10. Schule und Digitalisierung
    11. Chatbots im Schulunterricht: Fobizz
    12. Internet Girl: Podcast zu Social Media
    13. ICILS: An international perspective on digital literacy
    14. Programm „Neustart“ in Österreich
    15. Facebook und KI-generierte Nutzer
    16. Datenschutzanforderungen in der Schul-IT
  8. Franks Zugabe
    1. Apropos KI …
    2. Ein Update zur ePA, mal wieder …
    3. Und? Fühlen Sie sich sicher? Bitlocker beim 38C3
    4. Hirn-Implantate
    5. Y2025
    6. ShredOS
    7. Google Is Allowing Device Fingerprinting
    8. Apropos Tracking: CSS erlaubt User-Tracking in E-Mails
    9. Und noch ein Abo
  9. Die gute Nachricht zum Schluss
    1. Digital Detox: Hilfe zur Selbsthilfe



Wir wünschen eine gute Lektüre,

Rudi Kramer und Frank Spaeing

1 Aufsichtsbehörden

1.1 DSK: Menschenzentrierte Digitalisierung in der Daseinsvorsorge

In ihrer Entschließung vom 19. Dezember 2024 bezieht sich die DSK auf den politisch auf EU-, Landes- und Bundesebene angestrebten digitalen Wandel, in dessen Mittelpunkt der Mensch steht (siehe z.B. Europäische Erklärung zu den digitalen Rechten und Grundsätzen in der digitalen Dekade; 2023/C 23/1).
Die DSK erkennt das Potential, das der digitale Wandel in allen Lebensbereichen für Wirtschaft und Gesellschaft birgt. Sie unterstützt deswegen das Leitbild einer menschenzentrierten Digitalisierung als ein wichtiges politisches Ziel in der Europäischen Union. Seine Umsetzung und Verwirklichung durch unterschiedliche Akteure müsse das Grundrecht auf informationelle Selbstbestimmung im Blick behalten und insbesondere die allgemeinen Grundsätze für die Verarbeitung personenbezogener Daten beachten. Speziell in der Daseinsvorsorge sieht die DSK daher die Notwendigkeit diesen menschenzentrierten Ansatz zum Schutz derjenigen, die nicht digital agieren können oder wollen, gesetzlich zu flankieren. Dabei beruft sie sich auch auf die Beschlüsse Nr. 25 und Nr. 27 der 20. Verbraucherschutzministerkonferenz vom 14. Juni 2024 (Sicherstellung einer nichtdigitalen Kundenkommunikation und analogen Teilhabe am wirtschaftlichen Leben).
Die DSK appelliert daher an die Gesetzgeber von Bund und Ländern flankierende gesetzliche Maßnahmen im Bereich der Daseinsvorsorge zu prüfen, die die Rahmenbedingungen einer fairen Teilhabe derjenigen regeln, die keinen digitalen Zugang zu unverzichtbaren Dienstleistungen der Daseinsvorsorge haben oder nicht haben wollen.
In der Pressemeldung dazu wird der der Vorsitzende der DSK (des Jahres 2024), der Hessische Beauftragte für Datenschutz und Informationsfreiheit, zitiert, der darauf hinweist, dass sich diese Forderung besonders an die Digitalisierung der Daseinsvorsorge richte: „Wenn für die Inanspruchnahme zentraler Verkehrsdienstleistungen, der Energie- oder Wasserversorgung oder öffentlich geförderter Kulturangebote die Nutzung elektronischer Kommunikationswege, die Eröffnung eines digitalen Kontos oder die Nutzung einer Smartphone-App vorausgesetzt werden, kann das dazu führen, dass viele Menschen personenbezogene Daten preisgeben müssen, da sie andernfalls von der Inanspruchnahme solcher Daseinsvorsorgeleistungen ausgeschlossen werden.“

zurück zum Inhaltsverzeichnis

1.2 LfDI Mecklenburg-Vorpommern: Die „ePA für alle“ – Was Versicherte jetzt wissen sollten

Auch der LfDI Mecklenburg-Vorpommern informiert zu den datenschutzrechtlichen Aspekten der neuen elektronischen Patientenakte (ePA). Diese wird Anfang 2025 allen gesetzlich Krankenversicherten Verfügung gestellt. Sie soll die Behandlung der Patient:innen digitalisieren, spürbar verbessern und die Arzneimittelverschreibung sicherer machen. Klare Vorteile, wenn man sich für diese auch bewusst entscheidet. Für ausführlichere Informationen zu der neuen ePA und zu den Widerspruchsmöglichkeiten verweist er auf die Informationen bei der Verbraucherzentrale.

Franks Nachtrag: Ja, genau. Und es gibt noch mehr zur ePA. Wiedermal.

zurück zum Inhaltsverzeichnis

1.3 LDI NRW: Fünf Fragen, fünf Antworten

In einem Interviewformat formuliert die LDI NRW ihre Aspekte beim Rückblick auf 2024 und den Ausblick auf 2025. Dazu gehören natürlich die Fragestellungen rund um KI, aber auch die Emotionserkennung bei Anrufen in Callcentern. Sie berichtet dabei auch von einer Prüfung nach einer Meldung eines unzulässigen Datenaustausches und die Diskussion über die Zuständigkeit der datenschutzrechtlichen Aufsicht bei Staatsanwaltschaften. Für das Jahr 2025 erwartet sie eine weitere Fokussierung auf Fragen rund um die KI, sieht aber auch angesichts der Fülle der Aufgaben die Notwendigkeit der Priorisierung und Prozessoptimierung.

zurück zum Inhaltsverzeichnis

1.4 LfDI Baden-Württemberg: Rückblick und Ausblick im Podcast

Der LfDI Baden-Württemberg führt seinen Rückblick und Ausblick zum Jahreswechsel in der 43. Folge seiner Podcastreihe „Datenfreiheit“ (Dauer ca. 60 Min.) durch. Auch hier kommt das Thema KI nicht zu kurz, aber auch Fragen zu Datenschutz durch Technikgestaltung nach Art. 25 DS-GVO werden angesprochen. Neu ist, dass der LfDI Baden-Württemberg in einem Laborversuch prüft, inwieweit MS 365 lokal genutzt werden könne.

zurück zum Inhaltsverzeichnis

1.5 ICO: Leitfäden zu Fragen rund um die Anonymisierung

Während wir auf die bereits öfter angekündigten Guidelines des EDSA zur Pseudonymisierung und zur Anonymisierung warten, blicken wir nach Großbritannien, was der dortige ICO bereits 2022 veröffentlichte: Seine fünf Papiere, die er zur Konsultation stellte: Introduction to anonymisation, How do we ensure anonymisation is effective?, Pseudonymisation, Accountability and governance und Privacy-enhancing technologies (PETs).
Nun kündigt er an, dass der Leitfaden als ein einziges Dokument veröffentlicht werden soll, der die folgenden aktualisierten Kapitel enthält: „Einführung in die Anonymisierung“; „Bestimmbarkeit“; „Pseudonymisierung“ und „Rechenschaftspflicht und Governance“. Auch soll es ein neues Kapitel über Anonymisierung und Forschung geben. Darüber werde die Veröffentlichung mehrerer Fallstudien geplant, um zu zeigen, wie verschiedene Technologien eingesetzt werden können, um einen konformen Datenaustausch zu erleichtern.
Die Anonymisierungs- und Pseudonymisierungsleitlinien wurden von 2023 bis 2024 zur Überprüfung ausgesetzt. Die Pause soll es ermöglichen, dass das Datenschutz- und Digitalinformationsgesetz das britische Parlament durchläuft, sodass etwaige Gesetzesänderungen in den endgültigen Leitlinien berücksichtigt werden können.
Bisher gibt es nur den Leitfaden zu den Technologien zum Schutz der Privatsphäre (Privacy-Enhancing Technologies, PETs) in der finalen Version. Der erste Teil des Leitfadens richtet sich an Datenschutzbeauftragte (Data Protection Officers, DPOs) und Personen mit spezifischen Datenschutzaufgaben in größeren Organisationen. Er konzentriert sich darauf, wie PETs helfen können die Einhaltung der Datenschutzgesetze zu erreichen. Der zweite Teil richtet sich an ein eher technisches Publikum und an Datenschutzbeauftragte, die mehr über die derzeit verfügbaren PETs erfahren möchten. Er enthält eine kurze Einführung in acht PET-Typen und erläutert deren Risiken und Vorteile.

zurück zum Inhaltsverzeichnis

2 Rechtsprechung

2.1 VG Bremen: Anforderungen an Löschnachweis

Über ein Urteil des VG Bremen vom 17.12.2024 (Az. 4 K 2298/23) wird in zwei Juristen-Blogs berichtet (hier und da), auch wenn das Urteil noch nicht öffentlich kostenfrei zugänglich ist. Es ging dabei um eine Auseinandersetzung zwischen der Datenschutzaufsicht Bremen und einem Marketingunternehmen im Zusammenhang mit der Nachweispflicht bei einer erfolgten Löschung.
Das betroffene Marketingunternehmen hatte bis Mitte November 2023 zahlreiche E-Mails zu Werbezwecken verschickt. Eine Empfängerin beschwerte sich im Juli 2023 bei der Datenschutzaufsichtsbehörde, sie habe unerwünschte Werbe-E-Mails erhalten und keine Einwilligung dazu erteilt. Die Behörde forderte das Unternehmen zunächst zur Stellungnahme auf und verlangte Informationen über die verarbeiteten Daten sowie die Einwilligungen der betroffenen Personen. Nachdem das Unternehmen die Fristen verstreichen ließ und keine ausreichenden Nachweise vorlegte, erließ die Behörde im Dezember 2023 eine förmliche Anordnung. Die Anordnung verpflichtete das Unternehmen dazu detaillierte Informationen zu den kontaktierten Personen und deren Einwilligungen vorzulegen. Gleichzeitig drohte die Behörde ein Zwangsgeld von 5.000 Euro je nicht erfüllter Anforderung an. Im Oktober 2024 setzte die Behörde schließlich ein Zwangsgeld in Höhe von 10.000 Euro fest, da das Unternehmen den Anforderungen nicht nachgekommen war.
Das Unternehmen wehrte sich gegen die behördlichen Maßnahmen mit mehreren Argumenten:
Es habe die fraglichen Daten bereits gelöscht, was eine Erfüllung der Auskunftsanordnung unmöglich mache; die behördlichen Anforderungen seien unverhältnismäßig und führten selbst zu Datenschutzrisiken und aufgrund einer Änderung des Geschäftszwecks und des Sitzes des Unternehmens sei die Bremer Datenschutzaufsichtsbehörde nicht mehr zuständig. Es kam zur Klage. Das VG Bremen wies die Klage ab und bestätigte die Rechtmäßigkeit der Maßnahmen. Es argumentierte, dass die Behörde innerhalb ihrer gesetzlichen Befugnisse gehandelt habe, und wies die Vorwürfe des Unternehmens zurück.
Nach Ansicht des Gerichts ergebe sich die Pflicht bei einer Löschung von Daten den Nachweis führen zu können, 1) dass diese Daten gelöscht wurden und 2) wann dies erfolgte. Die pauschale Angabe, dass die Daten gelöscht sind, reiche in jedem Fall nicht aus, um den Anforderungen nach Art. 17 Abs. 1 und Art. 5 Abs. 2 DS-GVO zu genügen.
Das passt auch gut zu der angekündigten europaweiten Prüfung der Datenschutzaufsichten zur Löschpflicht (wir berichteten), bei der die konkreten Fragestellungen allerdings noch nicht bekannt sind.

zurück zum Inhaltsverzeichnis

2.2 VG Wiesbaden: Zulässigkeit biometrischer Daten in Ausweisen

Nach dem Urteil des EuGH (C-61/22, wir berichteten) hat das VG Wiesbaden nun selbst in der Sache entschieden. Der EuGH sah die europäische Regelung zur Aufnahme zweier vollständiger Fingerabdrücke in das Speichermedium von Personalausweisen als geeignet an, um dem Gemeinwohl dienende Zielsetzungen (zum einen der Bekämpfung der Herstellung gefälschter Personalausweise und des Identitätsdiebstahls und zum anderen der Interoperabilität der Überprüfungssysteme) zu erreichen (RN 89). Allerdings kam er aus formalen Gründen zu einer Ungültigkeit der zugrunde liegenden Norm (VO (EU) 2019/1157) und gab dem Unionsgesetzgeber eine Übergangsfrist bis zum 31.12.2026 (RN 126-128).
Das VG Wiesbaden informierte nun in einer Pressemitteilung, dass die Klage abgewiesen wurde, mit der der Kläger die Ausstellung eines Personalausweises ohne Speicherung der Fingerabdrücke auf dessen elektronischem Speichermedium (sog. „Chip“) begehrte.
Zwar habe der EuGH entschieden, dass die Verordnung wegen der Durchführung eines ungeeigneten Gesetzgebungsverfahrens ungültig sei, die Wirkungen der VO (EU) 2019/1157 würden jedoch aufrechterhalten bleiben, bis innerhalb einer angemessenen Frist, die zwei Jahre ab dem 01.01.2025 nicht überschreiten dürfe, eine neue, im korrekten Gesetzgebungsverfahren erlassene Verordnung, die sie ersetzt, in Kraft trete. In materieller Hinsicht verstoße die Einschränkung der in Art. 7 und Art. 8 GRCh garantierten Rechte nicht gegen den Grundsatz der Verhältnismäßigkeit, sodass die Verordnung nicht aus diesem Grund ungültig sei.
Die Ablehnung der Ausstellung eines Personalausweises ohne die Aufnahme von Fingerabdrücken sei rechtmäßig und verletze den Kläger deshalb auch nicht in seinen Rechten. Das Verwaltungsgericht Wiesbaden sei an das Urteil des EuGH, insbesondere bezüglich der Ausführungen zur materiellen Rechtmäßigkeit der VO (EU) 2019/1157, gebunden. Auch bezüglich der im konkreten Verfahren vorliegenden Frage der Rechtmäßigkeit der Ablehnung der Ausstellung eines Personalausweises ohne die Aufnahme von Fingerabdrücken durch die Landeshauptstadt Wiesbaden sei keine andere Beurteilung geboten. Der Grundsatz der Verhältnismäßigkeit sei auch im konkreten Fall gewahrt. In der Ablehnung der Ausstellung eines Personalausweises ohne die Aufnahme von Fingerabdrücken durch die Beklagte liege kein Verstoß gegen Grundrechte.
Das Urteil des VG Wiesbaden ist noch nicht rechtskräftig. Es gibt einen Bericht dazu und das Thema wird auch in einem Podcast besprochen.

Franks Nachtrag: Das Verfahren hatten wir von Anfang an hier begleitet. Hoffen wir mal auf eine Revision.

zurück zum Inhaltsverzeichnis

2.3 EuG-Vorschau: Drittstaatentransfer über Webseite der EU-Kommission (T-354/22)

Das Urteil ist für den 8. Januar 2025 angekündigt, wir hatten bereits dazu berichtet.

zurück zum Inhaltsverzeichnis

2.4 EuGH-Vorschau: Geschlechtliche Anrede (C-394/23)

Das Urteil ist für den 9. Januar 2025 angekündigt, wir hatten bereits dazu berichtet.

zurück zum Inhaltsverzeichnis

2.5 EuGH-Vorschau: Exzessive Anfragen an die Datenschutzaufsicht (C-416/23)

Das Urteil ist für den 9. Januar 2025 angekündigt, wir hatten bereits dazu berichtet.

zurück zum Inhaltsverzeichnis

2.6 EuGH-Vorschau: Anforderungen an Nachweis der Anonymisierung (C-413/23 P)

Für den 6. Februar 2025 sind die Schlussanträge des Generalanwalts im Verfahren EDPB /SRB (C-413/23 P, wir berichteten) angekündigt. Auch wenn die rechtliche Bewertungsgrundlage aus der VO 2018/1725 zu berücksichtigen ist, erhoffen sich alle belastbare Vorgaben zur Bewertung einer akzeptablen Anonymisierung.

zurück zum Inhaltsverzeichnis

3 Gesetzgebung

3.1 UN: Cybercrime-Konvention

Und hinterher will es wieder keiner gewesen sein. Am Heiligabend wurde in der UN-Generalversammlung die Cybercrime-Konvention beschlossen, wie hier berichtet wird. Kein Hasenzüchterverein würde sich so was leisten können, die UN schon: Ein Ausschuss hatte die Konvention befürwortet, dann gab es keine Abstimmung mehr. Und all die Hinweise und Warnungen durch NGO* und auch Parteien wurden nicht mehr berücksichtigt. Nach der Konvention müssen beitretende Staaten etwa beabsichtigte unberechtigte Zugriffe auf oder rechtswidrige Eingriffe in ein Informations- und Kommunikationssystem kriminalisieren.

* Franks Anmerkung: Ach ja, waren das noch Zeiten, als wir davor warnten

Franks Nachtrag: Und wir haben auch schon dazu berichtet.

zurück zum Inhaltsverzeichnis

3.2 DORA: Endspurt

Zum 17. Januar 2025 tritt die Verordnung EU 2022/2554 „Digital Operational Resiliance Act“, besser bekannt unter dem Kürzel „DORA“, in Kraft. Das BaFin informiert schon seit geraumer Zeit dazu und auch die österreichische Finanzaufsicht (FMA) informiert dazu im Bereich Querschnittsthemen. Dort findet sich auch eine Checkliste für den Endspurt, ob an alles gedacht wurde. Wie schon mehrfach darauf hingewiesen ist zu diesem Thema auch diese Webseite mit Darstellungen und Übersichten zum Thema DORA zu empfehlen.

zurück zum Inhaltsverzeichnis

3.3 Ideen für ein künftiges Digitalministerium

Im Rahmen der anstehenden Bundestagswahl wird auch wieder das Erfordernis eines eigenen Digitalministeriums diskutiert. F5 (ein Bündnis aus AlgorithmWatch, der Gesellschaft für Freiheitsrechte, der Open Knowledge Foundation, Reporter ohne Grenzen und Wikimedia Deutschland) hat dazu einen Vorschlag einer Blaupause für ein Ministerium für digitale Transformation veröffentlicht. Das Papier beschreibt zunächst die Aufgabenfelder und die damit verbundenen Herausforderungen der digitalen Transformation (Kapitel 1). Danach werden übergeordnete strukturelle Lösungen aufgezeigt, die ein Digitalministerium bieten könnte (Kapitel 2). Anschließend werden die Voraussetzungen für die Entwicklung geeigneter struktureller Antworten auf die Fragen der digitalen Transformation dargelegt (Kapitel 3). Im Zentrum des Vorschlags steht ein Organigrammentwurf, der in Kapitel 4 dargestellt und in Kapitel 5 ausführlich beschrieben wird.
Damit wollen die Verfasser:innen nicht nur einen Denkanstoß geben, sondern auch einen konkreten Beitrag zur politischen Entscheidungsfindung bieten. Digitale Transformation dürfe nicht länger als Nebenschauplatz behandelt werden. Die nächste Bundesregierung müsse hierzu ein klares Signal senden: Digitalisierung ist eine Priorität – für die Regierung, die Wirtschaft und vor allem für die Gesellschaft. Besonderer Fokus liegt demnach auf einer gemeinwohlorientierten Digitalisierung, die Datenschutz, digitale Grundrechte und soziale Gerechtigkeit stärkt sowie zu einer nachhaltigeren Welt beiträgt (Zitat aus Seite 5). Allerdings verwundert dann, dass die Zuständigkeit des Themas „Datenschutz“ im Entwurf eines Organigramms auf Seite 11 nur als Unterpunkt der Cybersicherheit auftaucht.
Auch der bitkom macht sich Gedanken zu einem Digitalministerium. In seinem Positionspapier dazu stellt er auf Seite sechs die bisherigen Zuständigkeiten seinen Vorstellungen gegenüber (wir berichteten).

zurück zum Inhaltsverzeichnis

3.4 Postmodernisierungsgesetz

Wer es noch nicht mitbekommen hat – ab dem 01.01.2025 greifen die Regelungen des PostModG. Und wer denkt, er kommt in dieser schnelllebigen Zeit nichts mehr mit, hat jetzt eine Referenz, die dem entgegenwirkt. Die gesetzlich vorgegebenen Postlaufzeiten wurden geändert – und eben nicht hektischer, nein der Gesetzgeber entschleunigt in § 18 PostG. Was die Änderung bedeutet, ist hier nachzulesen:
Mit der PostG-Novelle gelten künftig deutlich längere Brieflaufzeiten. § 2 Nr. 3 PUDLV<7a> forderte bisher, dass im Jahresdurchschnitt bundesweit 80 % der Sendung am Tag nach der Einlieferung (E+1) und 95 % am zweiten Tag nach der Einlieferung (E+2) zugestellt werden.
Bis zum 31.12.2024 gelten diese Anforderungen übergangsweise weiter. Ab dem 01.01.2025 gelten dann nach § 18 PostG deutlich längere Laufzeiten (E+3 = 95 % und E+4 = 99 %).
Es kann und darf also länger dauern, bis Briefpost innerhalb Deutschlands zugestellt wird. Gut, dass sich zum 01.01.2025 auch das Porto erhöht hat. Wer längere Lagerhaltungen benötigt, muss die Kosten ja umlegen können.

zurück zum Inhaltsverzeichnis

4 Künstliche Intelligenz und Ethik

4.1 FPF: Infografik zur KI-Governance

Das Future of Privacy Forum (FPF) hat eine Infografik veröffentlicht, die als Wegweiser für die Navigation durch die KI-Governance-Architektur des EU-KI-Gesetzes dienen soll. Mit der KI-VO wird ein komplexes Governance-Modell eingeführt, das Akteure auf supranationaler (EU) und nationaler Ebene (Mitgliedstaaten) umfasst. Die Infografik will die Dynamik zwischen allen Akteuren visualisieren, die sowohl an der Durchsetzung als auch an der Umsetzung dieses Gesetzes beteiligt sind. Darüber hinaus werden in der Infografik bestimmte Instrumente zusammengestellt, die supranationalen und nationalen Durchsetzungsbehörden zur Verfügung stehen werden, um die Umsetzung des KI-Gesetzes zu kalibrieren.

zurück zum Inhaltsverzeichnis

4.2 Dauer der Erstellung der Standards durch CEN-CELENEC zur KI-VO

Wir hatten ja schon berichtet, dass für die Umsetzung der Anforderungen aus der KI-VO Standards der CEN-CELENEC erarbeitet werden sollen. Hier wird über die Warnung der niederländischen Aufsicht informiert, dass der zeitliche Rahmen für die Umsetzung unbedingt eingehalten werden sollte, um Rechtssicherheit zu fördern.

zurück zum Inhaltsverzeichnis

4.3 Umweltbelastungen durch KI

Was kann beim Einsatz von KI ohne ausreichende Sensibilität und Schutzmaßnahmen passieren? Damit befasst sich diese Veröffentlichungen des Electronic Privacy Information Centers (EPIC) aus dem Jahr 2023 und vom Mai 2024. Es gibt auch andere Veröffentlichungen, die sich z.B. auf die Auswirkungen auf die Umwelt konzentrieren wie hier. Auch gibt es Untersuchungen zum Energiebedarf der KI-Entwicklung sowie zu den Kosten und Berichte zum Wasserbedarf. Aber weder die CO2-Belastung noch der Wasserbedarf werden nach diesen Berichten transparent kommuniziert. Welche Folgen dies für die Umwelt und Diversität der Natur haben kann, wird hier am Beispiel der Philippinen aufgezeigt. Es kann niemand sagen, dass es keine Hinweise und Warnungen geben würde, wie z.B. hier durch nature computational science. Und auch in Europa hat der Energiebedarf der KI in den Rechenzentren Auswirkungen, wie hier in Irland.
Eine Zusammenstellung verschiedener Veröffentlichungen und Angebot zu dieser Thematik findet sich hier*.

* Franks Anmerkung: Es öffnet sich ein Google-gehostetes Dokument, falls Sie so etwas stört …

Franks Nachtrag: Auch beim 38C3 war „Klima und KI“ ein Thema „Klimaschädlich by Design – die ökologischen Kosten des KI-Hypes“ (Video, Dauer ca. 39 Min.).

zurück zum Inhaltsverzeichnis

4.4 „Der Rohstoff der KI sind wir“

Wer weiß, ob seine Daten, wie Äußerungen und Benennungen in sozialen Medien oder auf Webseiten oder bei der Nutzung von Apps, zum Training einer KI verwendet wurde? Damit befasst sich dieser interaktive Beitrag des Bayerischen Rundfunks aus dem Juli 2023. Der Beitrag ist so gut gemacht, dass er mit dem Datenschutz Medienpreis 2023 ausgezeichnet wurde.

zurück zum Inhaltsverzeichnis

4.5 Tool zur Option vom KI-Training ausgenommen zu werden: OpenAI liefert nicht

Im letzten Mai (2024) kündigte OpenAI an, dass es ein technisches Tools bereitstellt, das genutzt werden kann, um Werke für ein Ki-Training bereitzustellen – oder eben auszuschließen. Es sollte bis zum Jahr 2025 einsatzfähig sein.
Ratet – wir haben das Jahr 2025 – und das Tool gibt es (noch?) nicht, wie hier berichtet wird. Gut unterrichtete Kreise geben dazu an, dass dieses Thema wohl keine entsprechende Priorität bei OpenAI gehabt haben soll.
Jetzt braucht es für so eine Einschätzung also schon gut unterrichtete Kreise … ?

zurück zum Inhaltsverzeichnis

4.6 EWC: KI-Leitfaden für den Buchsektor

Das European Writers Council (EWC) befasst sich auch mit der Frage des Schutzes kreativer Leistungen, wenn jeder Depp (ich fürchte, es hat seinen Grund, warum „Depp“ nie gegendert wird) mit seiner KI deren Werke unentgeltlich und meist unsanktioniert zum Training nutzt. Es stellen sich dazu die Fragen, wie sollten Autoren-Verträge zum Thema generative KI und Rechtevorbehalte zu Text- und Data-Mining ausgestaltet sein? Worauf müssen Übersetzer:innen, aber auch Verlage, Agenturen oder Buchhändler:innen achten, wenn sie Originaltexte in eine textverarbeitende „KI“ geben? Und wie groß sollte der Warnhinweis auf einem buchähnlichen Maschinenprodukt sein – für die Leser, aber auch für staatliche oder private Förderprogramme? Der KI-Leitfaden für den Buchsektor des European Writers‘ Council (EWC) bietet im Rahmen des EWC KI Toolkits praktische Antworten.
Der Leitfaden umfasst Ausführungen zu Rechtsraum und Text- und Data-Mining-Ausnahmen, den Definitionsrahmen von „KI“, zehn Empfehlungen für faire Arbeitsbeziehungen und konkrete Anleitungen und Vorschläge zur praktischen Umsetzung der zehn Empfehlungen inkl. Verträge, Absprachen, Technik.

zurück zum Inhaltsverzeichnis

4.7 KI-Systeme und Gewährleistungsrecht

Worauf sollten Unternehmen bei diesem Thema achten? Damit befasst sich dieser Blog-Beitrag. Wer auf KI-Systeme setzt, um Prozesse zu optimieren, Entscheidungen fundierter zu treffen oder innovative Geschäftsmodelle zu entwickeln, wird dabei nicht nur mit technologischen Chancen konfrontiert, sondern auch mit erheblichen rechtliche Herausforderungen, insbesondere im Hinblick auf das Gewährleistungsrecht. Wer ein KI-System für sein Unternehmen erwerben oder auf Plattformen wie Azure oder AWS ein eigenes neuronales Netz trainieren möchte, sollte die rechtlichen Rahmenbedingungen sorgfältig prüfen. Dazu bietet der Beitrag einen fundierten Einstieg.

zurück zum Inhaltsverzeichnis

4.8 Auswirkungen der KI-VO auf Verfahren der automatisierten Datenanalyse

Der eigentliche Titel der Veröffentlichung lautet „Big Brother is analyzing you“. Sie befasst sich mit der Berücksichtigung der Vorgaben der KI-VO bei Datenanalysen durch Sicherheitsbehörden. Diese Datenanalysen könnten dann als Hochrisiko-KI-System bewertet werden, wenn algorithmenbasierte Systeme Datenbestände qualifiziert und automatisiert untersuchen und verknüpfen, um neue Erkenntnisse zu generieren. Der Beitrag erörtert dann auch die Erforderlichkeit einer entsprechenden Rechtsgrundlage und die Kontrollmöglichkeiten der Ergebnisse und des Verfahrens. Einer der Autoren des Beitrags ist Leiter der Datenschutzaufsicht Rheinland-Pfalz und Vorsitzender des Arbeitskreises Künstliche Intelligenz der DSK (wir berichteten).

zurück zum Inhaltsverzeichnis

4.9 Anforderungen an die Erklärbarkeit von KI

Wie können Entscheidungen von KI erklärt / nachvollzogen werden? Und nach welchen Anforderungen? Damit befasst sich diese Veröffentlichung, die dabei europäisches Recht berücksichtigt und an der Wissenschaftler:innen u.a. von der Universität Gießen und dem Fraunhofer Instituts Stuttgart mitwirkten.

zurück zum Inhaltsverzeichnis

4.10 BSI: Whitepaper zur Erklärbarkeit von KI im adversarialen Kontext

Das BSI hat ein Whitepaper veröffentlicht, dass sich mit der Erklärbarkeit von Künstlicher Intelligenz (KI) im adversarialen Kontext beschäftigt. Das Dokument mit dem Titel „Erklärbarkeit von KI im adversarialen Kontext“ konzentriert sich auf die Beschränkungen von Explainable Artificial Intelligence (XAI). Es kommentiert den aktuellen Stand der Technik, insbesondere im Hinblick auf deren Einsatz im Bewertungsverfahren und die technische Unterstützung des digitalen Verbraucherschutzes. XAI verfolgt dabei das Ziel die Entscheidungsprozesse von KI-Systemen nachvollziehbar zu machen. Viele KI-Modelle, insbesondere solche auf Basis von Deep-Learning, agieren als „Blackbox“, deren innere Abläufe schwer zu verstehen sind. Das BSI-Whitepaper fokussiert sich auf Post-Hoc-Methoden, die nachträglich Erklärungen für diese Blackbox-Modelle liefern und den Einfluss einzelner Merkmale auf Entscheidungen analysieren.

zurück zum Inhaltsverzeichnis

4.11 MIT Technology Review: Mit KI gegen KI?

Wie kann man sich gegen die negativen Folgen von KI, wie dem unerlaubten Training mit Daten, schützen? Etwa durch KI-Tools? Damit befasst sich dieser Beitrag der MIT Technology Review, der dabei zwei Tools vorstellt.

zurück zum Inhaltsverzeichnis

4.12 ISO 42001:2023 AI Management System accredited certification

Der Cloudanbieter AWS informierte, dass er der erste nach ISO/IEC 42001-zertifizierte Cloud Service Provider ist, und welche seiner Angebot von der Zertifizierung umfasst werden.

zurück zum Inhaltsverzeichnis

4.13 Leitfaden Digitale Verwaltung: KI, Ethik und Recht

Angesichts der politischen Entwicklung im Nachbarland Österreich scheint ein „Leitfaden für die Digitale Verwaltung zu KI, Ethik und Recht“ gerade rechtzeitig zu kommen. Das vom österreichischen Bundesministerium für Kunst, Kultur, öffentlichen Dienst und Sport herausgegeben Papier soll laufend weiterentwickelt werden, um dabei zu unterstützen, dass die Digitalisierung der Verwaltung ethisch fundiert, rechtlich abgesichert und gleichzeitig innovativ fortentwickelt wird. Vertrauen, Transparenz und der Schutz der Grundrechte sollen dabei keine Option, sondern die Basis des Handelns sein.

zurück zum Inhaltsverzeichnis

5 Veröffentlichungen

5.1 EPIC: Reformbedarf einer Folgenabschätzung in den USA

Die Veröffentlichung der Datenschutz-Folgenabschätzung der Customs and Border Protection (CBP) zu kommerziellen Telemetriedaten nimmt das Electronic Privacy Information Center (EPIC) zum Anlass, um die Vorgaben für ein „Privacy Impact Assessment“ (PIA) zu kritisieren. Die CBP hat Aufgaben einer Zoll- und Grenzschutzbehörde.
Es beginnt bereits mit der Definition von kommerzielle Telemetriedaten, die nur historische Standortdaten umfassen, die von Mobilgeräten durch die Verfolgung ihrer Werbe-IDs (adIDs) erfasst werden. Dabei können jedoch mehr als nur historische Standortdaten von Smartphones umfasst sein. Zudem habe die CBP Daten von verschiedenen Unternehmen und Datenhändlern erworben und eine PIA wenn dann erst im Nachhinein verfasst.

zurück zum Inhaltsverzeichnis

5.2 Podcast zum Thema „Datenmissbrauch“

Es ist wie ein kleiner Ausflug in die Geschichte und die Ursprünge des Datenschutzgedankens. Und zeigt auch, dass es eben nicht “nur“ um den Schutz der Privatsphäre geht, sondern auch um den Missbrauch von Daten, die allgemein bekannt sein könnten. Im Podcast (Dauer ca. 1:09 Std.) geht es u.a. um die historischen Fälle seitens des Staates, deren Erfahrung den Anlass für ein modernes Datenschutzrecht gaben.

zurück zum Inhaltsverzeichnis

5.3 Podcast zum Thema Cyberangriffe

In dieser Podcastfolge (Nr. 2, Dauer 1:08 Std.) mit dem Sprecher der AG KRITIS geht es um Cyberangriffe, Geheimdienste und Sabotage. Das ist wohl nicht alles – eine weitere Folge dazu ist schon in Planung.

zurück zum Inhaltsverzeichnis

5.4 c´t-Security-Checklisten 2025

Freundlicherweise frei verfügbar sind die Security-Checklisten des heise-Verlages zu Themen wie Mobilem Arbeiten, WLAN-Router, KI-Sprachmodelle, Messenger, Browser, Social Media, Online Banking, Passwörter & Konten und noch zu vielen anderen Aspekten.

zurück zum Inhaltsverzeichnis

5.5 Zusammenfassung der Opinion 28/2024 des EDSA

Nicht alle konnten oder wollten sich über den Jahreswechsel mit den Details der Opinion 28/2024 des EDSA zu KI (wir berichteten) befassen. Zum Einstieg kann auch diese Zusammenfassung der wesentlichen Aussagen genutzt werden.

zurück zum Inhaltsverzeichnis

5.6 Was gab´s beim 38. CCC?

Hier eine kleine Liste einer Auswahl von Vorträgen zu wichtigen Themen (alle finden Sie hier und einen Bericht dazu dort):

zurück zum Inhaltsverzeichnis

5.6.1 Digitalisierung mit der Brechstange – was noch tun, wenn nur offline geht?

Digitalisierung mit der Brechstange – was noch tun, wenn nur offline geht?

zurück zum Inhaltsverzeichnis

5.6.2 Hacking yourself a Satellite

Die Wiederaufnahme des Kontaktes mit einem Satelliten im All – durch einen Studenten. Bericht dazu hier (Ältere kennen noch das Lied „Ich hol dir keine Sterne mehr vom Himmel (die liegen nachher doch nur bei uns rum)“).

zurück zum Inhaltsverzeichnis

5.6.3 Modernisierung des Computerstrafrechts – oder etwa nicht?

Modernisierung des Computerstrafrechts – oder etwa nicht?

zurück zum Inhaltsverzeichnis

5.7 Veranstaltungen

5.7.1 Niedersachsen.next: „Sexroboter: Wenn KI verführt“

14.01.2025, ab 18 Uhr, Hannover: Zu rechtlichen und ethischen Überlegungen laden an diesem Abend das Niedersächsische Wirtschaftsministerium, die Niedersachsen.next Digitalagentur und die Leibniz-Universität-Hannover zum besonderen Event ein. Künstliche Intelligenz (KI) eröffnet neue Möglichkeiten und Gedankenspiele in vielen Bereichen. Deutlich wird dies in dem Film „Musing of a mechatronic mistress: The Peculiar Purpose Of Tiffany The Sex Robot“, der während dieser Veranstaltung gezeigt wird. Darin geht es um unterschiedliche gesellschaftliche, politische und ethische Aspekte, die anhand der Hauptfigur, einem selbstbewussten Sexroboter namens Tiffany, thematisiert werden. Im Anschluss gibt es Diskussionen und danach ein entspanntes Get-together und Möglichkeit zum persönlichen Austausch. Weitere Informationen und Anmeldung hier.

5.7.2 Universität des Saarlandes: Technischer Datenschutz

14.01.2025, 18:15 – 19:45 Uhr, online: In der Vortragsreihe der Universität des Saarlandes geht an dem Abend um aktuelle Fragestellungen zum technischen Datenschutz. Weitere Informationen und Link zur Veranstaltung hier.

5.7.3 Stiftung Datenschutz: Datenschutz am Mittag – 2025: Schwerpunkte und Herausforderungen in der Datenschutzpolitik -neu-

16.01.2025, 13:00 – 14:30 Uhr, Berlin und online: In der Veranstaltung der Stiftung Datenschutz in deren Reihe „Datenschutz am Mittag“ wird die BfDI zu ihren Erwartungen an datenschutzrechtliche Entwicklungen im neuen Jahr befragt. Die Teilnahme ist auch vor Ort möglich. Weitere Informationen und Anmeldung finden sich hier.

5.7.4 Universität Passau – Distinguished Lecture: Haftung für unsichere Software

17.01.2025, 17:00 – 19:00 Uhr, München: Die Distinguished Lecture beschäftigt sich mit der Haftung für unsichere Software nach dem Cyber Resilience Act (CRA). Der CRA schafft erstmalig sektorübergreifende Sicherheitsanforderungen für (beinahe alle) Softwareprodukte. Jedoch geht das Gesetz konzeptionell davon aus, dass im Fall unsicherer Softwareprodukte die Marktaufsicht einschreiten muss (sog. public enforcement). Die Vorträge gehen deshalb der Frage nach, inwiefern eine private Durchsetzung (sog. private enforcement) der Sicherheitsanforderungen mit den Mitteln des Zivilrechts möglich ist. Können etwa die Opfer eines Ransomware-Angriffs, welcher durch vermeidbare Sicherheitslücken ermöglicht wurde, Schadensersatzansprüche gegen den Hersteller oder gar den Verkäufer der Software geltend machen? Weitere Informationen hier und der Link zur Anmeldung findet sich dort.

5.7.5 Universität des Saarlandes – Datenschutz in der Praxis: „Datenverarbeitung im Ausland – What to do“ -neu-

21.01.2025, 18:15 – 19:45 Uhr, online: In der Vortragsreihe der Universität des Saarlandes geht an dem Abend um die Fragestellungen zur Datenverarbeitung im Ausland. Weitere Informationen und Link zur Veranstaltung hier.

5.7.6 eco-Verband – Open Talk „NIS2 – Was tun?“ -neu-

22.01.2025, 15:00 – 16:30 Uhr, online: Die EU-Richtlinie NIS2 hat in den vergangenen beiden Jahren vielfach die Diskussion um Cybersicherheit dominiert. Allerdings hat Deutschland nicht nur die Vorgabe der EU verfehlt, die Richtlinie bis zum 18. Oktober 2024 in nationales Recht umzusetzen, und handelte sich dafür ein Vertragsverletzungsverfahren ein. Der noch amtierenden Bundesregierung gelingt es voraussichtlich nicht das NIS2-Umsetzungsgesetz noch in dieser Legislaturperiode zu verabschieden. Damit wird sich die rechtliche Umsetzung von NIS2 noch einmal deutlich verzögern und Experten zufolge frühestens im Herbst 2025 erfolgen. Doch was bedeutet diese Situation für Unternehmen, die von der Richtlinie betroffen sind? Bei dem virtuellen Event wird diese Thematik durch Experten in juristischer, politischer und sicherheitstechnischer Hinsicht betrachtet, bevor es in die Diskussion geht. Weitere Informationen und Link zur Anmeldung hier.

5.7.7 CNIL: Schutz der Stimme und des Bildes im Zeitalter der KI

23.01.2025, 14:30 – 18:00 Uhr, Paris: Im Vorfeld des Aktionsgipfels zu KI, bei dem Frankreich Gastgeber sein wird, lädt die CNIL zusammen mit Universitäten ein, wie sich Desinformation, Betrug und Verletzungen der Privatsphäre verhindern und gleichzeitig die Vorteile der KI nutzen lässt. Weitere Informationen und Anmeldung hier.

5.7.8 CPDP – Data Protection Day

28.01.2025, 09:30 – 17:00 Uhr, Brüssel und online: Ab dem 4. November 2024 kann die Anmeldung für eine Hybrid-Veranstaltung in Brüssel erfolgen, die sich mit der Erkundung der aktuellen und zukünftigen Landschaft des Datenschutzes befasst.
Die Hauptthemen, die während der Veranstaltung diskutiert werden, umfassen die digitale Agenda unter neuen politischen Mandaten, Neurowissenschaften, Zugang zu Daten für die Strafverfolgung sowie die Zukunft des Datenschutzes. Mehr dazu hier und hier.

5.7.9 Universität des Saarlandes – Datenschutz in der Praxis: „Entwurf eines Beschäftigtendatengesetzes“ -neu-

28.01.2025, 18:15 – 19:45 Uhr, online: In der Vortragsreihe der Universität des Saarlandes geht an dem Abend um den Entwurf des Beschäftigtendatengesetzes. Weitere Informationen und Link zur Veranstaltung hier.

5.7.10 EDPS: Data Protection Day 2025

29.01.2025, 08:30 – 18:00 Uhr, Brüssel & online: Der Europarat, die CPDP-Konferenzen und der Europäische Datenschutzbeauftragte (EDPS) laden ein, den Datenschutztag mit einer Sonderausgabe der CPDP zu feiern. Die Veranstaltung wird sich auf das sich weiterentwickelnde Mandat des Datenschutzes konzentrieren, insbesondere auf seine wesentliche Rolle als Schutz unserer demokratischen Gesellschaft vor übermäßigen Eingriffen in die Privatsphäre der Bürger durch öffentliche oder private Akteure.
Anlässlich des Datenschutztags organisieren der Europarat (CoE), CPDP-Konferenzen und der Europäische Datenschutzbeauftragte (EDPS) gemeinsam eine eintägige Veranstaltung, bei der die aktuelle und zukünftige Landschaft des Datenschutzes erkundet wird. Die Konferenz wird als Plattform zur Diskussion der Herausforderungen und Chancen an der Schnittstelle zwischen neuen Technologien und Datenschutzrisiken sowie zwischen Innovation und regulatorischen Rahmenbedingungen dienen.
In diesem Jahr findet der CPDP – Datenschutztag zu einem entscheidenden Zeitpunkt statt, da mit der kürzlich erfolgten Wahl des Europäischen Parlaments und der anschließenden Ernennung einer neuen Europäischen Kommission neue politische Mandate der EU beginnen, die politische Landschaft zu prägen. Diese Änderungen fallen mit neuen Mandaten des Menschenrechtskommissars des Europarats und des Europäischen Datenschutzbeauftragten zusammen. Gleichzeitig bringen neue technologische Entwicklungen in Bereichen wie künstliche Intelligenz und Neurowissenschaften neue Herausforderungen für das Recht auf Schutz personenbezogener Daten und anderer Grundrechte mit sich. Uralte Herausforderungen wie der Zugang zu Daten für Zwecke der Strafverfolgung und der nationalen Sicherheit stehen weiterhin ganz oben auf der politischen Agenda.
Die Teilnehmer werden eingeladen, über das sich entwickelnde Mandat des Datenschutzes nachzudenken und zu diskutieren, insbesondere über seine wesentliche Rolle als Schutz unserer demokratischen Gesellschaft vor übermäßigen Eingriffen in die Privatsphäre der Bürger durch öffentliche oder private Akteure. Weitere Informationen hier und zur Anmeldung dort.

5.7.11 Fachkonferenz und Preisverleihung CDR-Award 2024

29.01.2025, 14:00 – 18:00 Uhr, Berlin, Fachkonferenz / 18:00 – 20:00 Uhr, Berlin, Preisverleihung: Im Anschluss an eine Fachkonferenz findet in der bayerische Landesvertretung die Preisverleihung des CDR-Award 2024 statt. Die Nominierten und die Shortlist der einzelnen Kategorien sind hier hinterlegt (wir berichteten). Tickets können hier bestellt werden.

5.7.12 EAID: Exportschlager AI Act

29.01.2025, 18:00 – 20:00 Uhr, Europäische Akademie in Berlin und online: Am Europäischen Datenschutztag befasst sich die Europäischen Akademie für Informationsfreiheit und Datenschutz (EDIID) mit der Frage „Exportschlager AI Act – setzt die EU einen weltweiten Standard für die KI-Regulierung?“. Expert:innen aus Politik, Wissenschaft und NGO bringen sich dazu mit Einführungsstatements und in die anschließende Paneldiskussion ein. Weitere Informationen und Anmeldemöglichkeit für eine vor-Ort-Teilnahme oder zur Online-Teilnahme hier.

5.7.13 Weizenbaum-Institut: Dialogreihe KI-VO – Wege zur Umsetzung

In dieser Reihe werden unterschiedliche Themen angeboten, bitte die genauen Zeiten und Anmeldeoptionen jeweils der Webseite entnehmen:

  • Ausgabe 3: Wie soll die nationale Aufsicht gestaltet werden?
    29.01.2025 \\ vor Ort im Weizenbaum-Institut
  • Ausgabe 4: Vorbereitung und Umsetzung der KI-Verordnung in der Wirtschaft
    25.02.2025 \\ online
  • Ausgabe 5: KI-Verordnung und die europäische Innovations- und Wettbewerbsfähigkeit
    16.04.2025 \\ online
  • Ausgabe 6: Thema wird in Kürze bekannt gegeben*
    28.05.2025 \\ online
  • Ausgabe 7: Thema wird in Kürze bekannt gegeben
    09.07.2025 \\ vor Ort in der Bertelsmann Stiftung Berlin

* Franks Anmerkung: Ja, das steht da immer noch so…

5.7.14 Stiftung Datenschutz: Datenschutz am Mittag – Die Position des EDSA zu Datenschutz und KI-Modellen -neu-

30.01.2025, 13:00 – 14:30 Uhr, online: In der Veranstaltung der Stiftung Datenschutz in deren Reihe „Datenschutz am Mittag“ wird im dritten Teil der Schwerpunktreihe „KI und Datenschutz“ die am 17.12.2024 vorgelegte Stellungnahme des Europäischen Datenschutzausschusses (EDSA) einer detaillierten Würdigung unterzogen. Was sagt der EDSA, was sagt er nicht? Wann kann ein statisches KI-Modell als anonym und damit als datenschutzrechtlich irrelevant erachtet werden? Wie können Verantwortliche den Nachweis führen, dass ein KI-Modell auf Grundlage der allgemeinen Interessenabwägungsklausel entwickelt und eingesetzt wird? Infiziert ein datenschutzwidriges Training eines KI-Modells dessen Nutzbarkeit? Der Referent wird diesen und anderen Fragen nachgehen und einen Ausblick wagen, wie die Einschätzung des EDSA den Einsatz von KI-Modellen und KI-Anwendungen in der Praxis beeinflussen wird. Weitere Informationen und Anmeldung hier.
Der erste Teil („KI und Datenschutz“) der Reihe ist hier, der zweite Teil („Datenschutz- und KI-Folgenabschätzung“) dort als Aufzeichnung abrufbar.

5.7.15 BSI: 1. IT-Grundschutztag 2025

04.02.2025, 08:30 – 16:15 Uhr, Magdeburg und online: Zusammen mit dem Land Sachsen-Anhalt richtet das BSI die Veranstaltung zum Thema „Gemeinsam sicher. Gemeinsam digital.“ in hybrider Form aus. Der IT-Grundschutz-Tag in Magdeburg gibt praxisnahe Einblicke in den IT-Grundschutz und in das BCM, sowie die Umsetzung aktueller Vorschriften wie beispielsweise die NIS2-Richtinie in den Bundesländern und in der kommunalen Verwaltung. Im Fokus der Veranstaltung stehen daher Landesverwaltungen und Kommunen. Aktuelle Neuigkeiten zum IT-Grundschutz runden den Tag ab. Die Teilnahme ist kostenfrei. Weitere Informationen zur Agenda und Anmeldung finden sich hier.

5.7.16 Universität der Bundeswehr München / Austrian Institute of Technology: „Exercise Contain“ – Rahmenwerk zur Bewältigung von Cybervorfällen

25./26.02.2025, (25.02.2025,) 12:00 Uhr – (26.02.2025,) 16:00 Uhr, München: In einer Kooperation zwischen Deutschland und Österreich forschen Universitäten, Unternehmen und Behörden daran, die Reaktion auf digitale Bedrohungen, insbesondere Ransomware, effektiver und effizienter zu gestalten. Das Forschungsprojekt CONTAIN entwickelt hierfür ein Rahmenwerk von Prozessen und Verfahren zu Bewältigung von Cyber-Vorfällen, unterstützt durch Serious Games und Simulationen. Details zum Programm finden sich hier unter „Info“, die Anmeldung dazu unter „Anmeldung“*.

* Franks Anmerkung: Na, das ist ja mal eine toll gebaute Seite. Ohne Javascript geht nix. Gute Navigation 👍

zurück zum Inhaltsverzeichnis

6 Gesellschaftspolitische Diskussionen

6.1 Apple und Vorwürfe der Mitarbeiterüberwachung

Ein Teil des Marketings bei Apple beruht auf dem Versprechen der Einhaltung von „Privacy“-Anforderungen. Da irritiert es dann besonders, wenn es Meldungen gibt, dass Apple seine Mitarbeitenden überwachen würde. Darin wird über eine Klage berichtet, die behauptet, dass Apple von seinen Mitarbeitenden verlange Software auf ihren persönlichen Geräten zu installieren, die sie für die Arbeit nutzen, und Apple so den Zugriff auf ihre E-Mails, Fotobibliotheken, Gesundheits- und „Smart Home“-Daten sowie andere persönliche Informationen ermöglichten. Zudem lege Apple Vertraulichkeitsrichtlinien fest, die es den Mitarbeitern untersagen über die Arbeitsbedingungen zu sprechen (auch nicht mit den Medien) oder sich an gesetzlich geschützten Whistleblowing-Verfahren zu beteiligen. Apple sieht das anders. In dem Bericht wird auch ausgeführt, dass diese neue Klage nach einem einzigartigen kalifornischen Gesetz eingereicht wurde, das es Arbeitnehmern erlaube ihre Arbeitgeber im Namen des Staates zu verklagen und 35 % aller eingetriebenen Strafen zu behalten.
Sicherlich auch spannend für die Standortwahl eines Unternehmens.

zurück zum Inhaltsverzeichnis

6.2 Apple und die Beendigung eines Rechtsstreits

Apple sah sich nach diesem Bericht einer Klage ausgesetzt, gegen den Wiretap Act und den kalifornischen Invasion of Privacy Act verstoßen zu haben, indem behauptet wird, Siri sei versehentlich aktiviert worden und habe private Gespräche aufgezeichnet, die später für gezielte Werbung verwendet wurden. Die Nutzer begannen verdächtig relevante Anzeigen zu bemerken, was sie mehr als irritierte. Es kam zu einer Sammelklage. Apple bestreitet ein Fehlverhalten, stimmte aber einem Vergleich zu – ohne eine Haftung einzugestehen. In dem Vergleich stimmt Apple einer Zahlung in Höhe von 95 Mio. US-$ zu. Jeder an der Sammelklage Beteiligte kann immerhin mit 20 US-$ pro Siri-fähigem Gerät rechnen – maximal für fünf Geräte.

zurück zum Inhaltsverzeichnis

6.3 Apple und der Zugriff auf Bilder in iOS 18

Es scheint derzeit bei Apple zu laufen: In dieser Meldung wird über Beschwerden berichtet, dass iOS Bilddaten mit Apple-Servern abgleicht. Um die Fotomediathek nach Wahrzeichen durchsuchen zu können, übermitteln iPhones, iPads und Macs nach der Installation der aktuellen Betriebssystemversion bestimmte Bilddaten ungefragt an Apple-Server. Das ist standardmäßig aktiviert, Apple nennt das Feature „erweiterte visuelle Suche“. Andere nennen es datenschutztechnisch sehr fragwürdig, wenn dies ohne Einwilligung erfolge. Wie das technisch abläuft und warum Apple darin kein Datenschutzthema sieht, weil es eine homomorphe Verschlüsselung verwendet, erläutert Apple hier auf seinen Seiten.
Und wer die letzten Jahre aufgepasst hat, grübelt jetzt, ob Apple dabei nicht die ePrivacy-RL übersehen haben könnte, bei der ein personenbezogenes Datum nicht zwingend für die Relevanz erforderlich ist, sondern ein Zugriff auf Informationen im Gerät nur dann ohne Einwilligung möglich ist, wenn dieser Zugriff für die Erbringung eines Dienstes unbedingt erforderlich ist.
Da Apple laut Bericht kein Opt-in dafür vorgesehen hat, können es Nutzer es nur nachträglich abschalten, wenn sie wissen, wo der Schalter dafür ist („Einstellungen > Apps > Fotos > Erweiterte visuelle Suche“ in iOS 18 bzw. iPadOS 18 sowie in den Einstellungen der Fotos-App von macOS im Reiter „Allgemein“).

Franks Nachtrag: Huch, da muss ich ja nur noch ergänzen, schön 👍. Hier wird über den Datenschutz bei der erweiterten visuellen Suche (sehr technisch, umfangreich, auf englisch) diskutiert.

zurück zum Inhaltsverzeichnis

6.4 Selbstversuchs-Studie zu TikTok

Welch nette Idee aus Österreich*: Um selbst zu erfahren, wie der Algorithmus auf Teenager wirkt wurden Fakeprofile erstellt, in denen der Algorithmus nur das Geschlecht, Alter und aus welchem der neun österreichischen Bundesländer der Person kommt erfährt. Die Suchfunktion und Likes werden nicht verwendet, auch wird nicht kommentiert, nur gescrollt. Das Fakeprofil einer 16-jährige aus Wien bekommt nur allgemeine Lebensweisheiten, bei dem Profil einer 18-jährige aus dem Burgenland wurden noch die Interessen an-Anime, Promis und Memes angegeben: Zuerst erscheint Jörg Haider, der vor Ausländern warnt, danach russische Propaganda. Dem Fakeprofil einer 16-jährigen aus Niederösterreich wird zuerst das Lied L´Amours Toujours eingespielt, dass gerne auch mit einem ausländerfeindlichen Refrain umgetextet wird. Dem Profil eines 16-jährigen aus Oberösterreich werden nach kurzer Zeit Videos von Trump eingespielt und ein Angebot eines Teslas für 5.000 Euro inkl. Fake-Foto von E. Musk. Das Profil einer 16-jährigen aus Salzburg wird zunächst mit Dubai-Schokolade versüßt, bevor auch hier Trump, die Polizei, Musk und ein Podcaster aus den USA erscheinen. Für das Profil eines 16-jährigen aus Kärnten beginnt es mit Fakevideos von Trump, bevor hier der Spitzenkandidat der österreichischen FPÖ erscheint, gefolgt von Jörg Haider (für die GenZ hier in der Wikipedia zum Nachlesen – er verunglückte 2008 tödlich) erscheint. Die Einspielung bei dem Profil einer 14-jährigen aus Tirol beginnt entspannt mit Rappervideos, bevor nach Polizei- und Abschiebevideos eine Person aus Deutschland das Wirtschaftswachstum von Russland und Putin lobt. Bei dem Profil eines 17-jährigen Elias aus Vorarlberg schwankt das Programm zwischen rechtsextrem und islamistisch. Bei dem Programm für ein Profil eines 15-jährigen aus der Steiermark wurden zunächst frivole Lieder, Trump und eine Werbung für das Bundesheer zugespielt, bevor in einem Clip ihm ein vorgeblicher Putin Arbeit, ein Haus, eine russische Ehefrau und eine militärische Ausbildung verspricht.
Dieser Test erschwert es den Befürwortern von TikTok in den Marketing-Etagen westlicher Unternehmen und Behörden den Gegenbeweis anzutreten, dass sie keine paarungsgeile Demokratiefeinde sind.
Hab´ jetzt leider die Idee zu spät – sonst hätte man Sylvester eine Art faschistoides Bleigießen mit gefakten TikTok-Profilen spielen können. Ein lesenswerter Bericht!

* Franks Nachtrag: Kollege Kramer wollte meinen Beitrag noch mal mit seinen eigenen Worten bringen. Seine sind umfangreicher, enthalten mehr Details, also ist das OK.
Dann muss ich nicht „Erster“ sagen … (Ups 😬).

zurück zum Inhaltsverzeichnis

6.5 Endlich: Meta bekennt Farbe …

Schau an, kaum steht ein neuer Präsident vor der Tür, der bereits die Ablösung des Chefs der Federal Trade Commission (FTC) ankündigte, und kaum ist ersichtlich, was unter der Interpretation der Meinungsfreiheit alles geht, kündigt der Chef von Meta an künftig weniger Moderatoren einzusetzen. Diese sollten bisher jugendgefährdende und rechtswidrige Inhalte aussortieren. Diese Kosten will sich Meta nun bei Facebook und Instagram sparen. Also nichts mehr mit Faktencheck. Genau meine Art von Ironie: Das kündigte er auf Facebook an. Irgendwie passend, dass dort indirekt verkündet wird, dass es dort künftig mehr* falsche Informationen und rechtswidrige Inhalte geben wird.
Mal sehen, ob in 18 Monaten wie bei twitter / „X“ auch die Leitungsebenen von Marketingbereichen und Unternehmen unter Krokodilstränen medienwirksam ihren Abschied von Facebook zelebrieren, nachdem sie jahrelang das Biest fütterten, dass sie nun meiden wollen.
Die Frage wird nur sein, wo** sie das dann noch verkünden wollen?

* Franks Anmerkung: Müsste es nicht „noch mehr“ heißen?

** Franks zweite Anmerkung: Och, da gibt es ja durchaus Alternativen.

Franks Nachtrag: Das ist aber ein tiefdunkles Braun, zu dem Sie sich da bekennen, Herr Zuckerberg!

zurück zum Inhaltsverzeichnis

7 Sonstiges/Blick über den Tellerrand

7.1 Einsatz der Spähsoftware Pegasus

Die NSO Group aus Israel vertreibt die Spähsoftware Pegasus, mit der unbemerkt Smartphone und Computer ausspioniert werden können (wir berichteten darüber öfter). In einem US-Gerichtsverfahren bzgl. des Einsatzes von Pegasus in Chatgruppen von WhatsApp hat sich nun der Richter in einer Vorabentscheidung dazu geäußert, wie hier berichtet wird. Dem Richter zufolge sei das israelische Überwachungsunternehmen illegal in die Systeme des Messengers eingedrungen und habe dabei mehr als 1.000 Mobiltelefone gehackt. Das bemerkenswerte daran ist, dass es gar nicht mehr um die Frage ging, ob die NSO Group selbst hinter dem Einsatz steckt. Meta wirft der Spähfirma vor, gegen die Nutzungsbedingungen und gegen den U.S. Computer Fraud and Abuse Act verstoßen zu haben.

zurück zum Inhaltsverzeichnis

7.2 Plattformverfahren

Worum geht es in dieser Publikation „Das Plattformverfahren“, die als ebook frei verfügbar ist? Content Moderation durch Internetplattformen ist der entscheidende Regulierungsansatz beim interessengerechten Umgang mit illegalen Inhalten. Bisher wurde sie als Teil der Plattformhaftung verstanden. Dieses Buch schafft eine neue Perspektive auf die Rechtsdurchsetzung auch durch Plattformmanagement. Moderation als Verfahren mit Verfahrensgrundsätzen. Und da es kostenlos verfügbar ist, kann sich auch keine der großen Plattformen herausreden, wenn sie dauerhaft jugendgefährdendes Material ohne Altersverifikation anbieten oder sonstige rechtswidrige Inhalte trotz Hinweis nicht entfernen. Aber an finanziellen Mitteln hat es bei diesen wohl noch nicht gemangelt.

zurück zum Inhaltsverzeichnis

7.3 EDRi: Bedenken bei biometrischen Reisepässen

Die Bürgerrechtsorganisation European Digital Rights (EDRi) warnt anlässlich des EU-Vorschlags zur Digitalisierung von Ausweisdokumenten vor dem Aufbau einer massiven Gesichtsdatenbank. Mit einem Gesetzesvorschlag aus dem Oktober 2024 sollen Personenkontrollen an den Schengen-Außengrenzen mithilfe digitaler Reisedokumente beschleunigt werden.
Laut der Veröffentlichung der Bürgerrechtsorganisation führe dies zu drei Risiken:

  • Zum Aufbau einer Infrastruktur für biometrische Massenüberwachung,
  • zur Priorisierung kommerzieller Interessen bei gleichzeitigem Abstempeln von Reisenden als Risikopersonen
  • und zur Einführung neuer sowie zur Verstärkung bestehender Formen der Diskriminierung.

Die Konsultation zum Gesetzgebungsverfahren für die geplante Reise-App läuft bis 8. Januar 2025.

zurück zum Inhaltsverzeichnis

7.4 KI und Bundestagswahl

Natürlich wissen wir, dass durch KI manipuliert werden kann. Und natürlich wissen wir auch, dass dies sicher nicht vor politischen Aussagen Halt macht. Und erst Recht nicht vor einer Wahl. Hier befasst sich der MDR mit diesem Problem in einem Hörfunkbeitrag (ca. 3:00 Min. Dauer). Neu war mir, dass bei KI-Fakes oft die Inhalte hängen bleiben, selbst wenn die KI-Generierung offengelegt wurde.

zurück zum Inhaltsverzeichnis

7.5 AG KRITIS und Wahlprüfsteine

Die AG KRITIS hat an alle im Bundestag vertretenen Parteien einen Fragebogen mit identischen Fragen geschickt. Dabei wurden die Themen IT Sicherheit, Resilienz und Krisenvorsorge in einem besonderen Fokus berücksichtigt. Nach dem Rücklauf der Antworten zu diesen „Wahlprüfsteinen“ bis 15. Januar 2025 werden diese durch die AG KRITIS veröffentlicht.

zurück zum Inhaltsverzeichnis

7.6 Datenschutz als Voraussetzung gegen autoritäre Staaten

Hier wird ein Beitrag veröffentlicht, der sich mit der Aussage „Staaten können Autoritarismus bekämpfen, indem sie die Datenschutzgesetze stärken“ befasst. Der Autor arbeitet heraus, dass die Privatsphäre eines der Bollwerke gegen die Macht autoritärer Regierungen sei. Dabei sei zu berücksichtigen, dass die Gesellschaft aufgrund der technischen Entwicklungen stärker überwacht wird als je zuvor. Am Beispiel der Entwicklungen in den USA wird das Erfordernis von starken Datenschutzregularien erörtert, die verhindern, dass Minderheiten benachteiligt und verfolgt werden.

zurück zum Inhaltsverzeichnis

7.7 UK: Maßnahmen gegen Verstöße von Social-Media-Plattformen

Das war doch mal eine schöne Nachricht zu Heiligabend: Der Technologieminister Großbritanniens möchte harte Maßnahmen gegen Social-Media-Konzerne durchsetzen, die junge Nutzer nicht besser vor problematischen Inhalten schützen. Apps, die nur für Erwachsene bestimmt sind, müssten außerdem eine »wasserdichte« Altersüberprüfung per Kreditkarte oder Personalausweis einführen, wird er zitiert. Die Aufsichtsbehörde Ofcom soll die konkreten Vorgaben im Januar 2025 bekannt geben.

zurück zum Inhaltsverzeichnis

7.8 USA: Musk und Sicherheit

Das klingt nicht beruhigend: Nach dieser Meldung sind sich Sicherheitseinrichtungen in den USA nicht sicher, ob der neue Berater und Bürokratieabbaubeauftragte so vertrauenswürdig sei. Zumindest werde ihm mittlerweile vorgeworfen, er und seine Firma SpaceX hätten angeblich die Meldeprotokolle zur Offenlegung von Reisen und Treffen mit ausländischen Staatsoberhäuptern nicht eingehalten. Dazu gehören auch Treffen mit dem russischen Präsidenten Wladimir Putin. Da erscheint der Vorwurf des Drogenkonsums ja noch harmlos, erklärt aber auch in gewisser Weise doch Einiges.

zurück zum Inhaltsverzeichnis

7.9 GI zur digitalen Souveränität und den Ergebnissen der Ampel

Die Gesellschaft für Informatik (GI) befasst sich in einem Rückblick zur Ampel mit deren Zielen die digitale Souveränität und den Einsatz von Open Source zu steigern. Nach diesem Bericht zieht sie eine ernüchternde Bilanz zur Digitalpolitik der scheidenden Bundesregierung. Und das ist nicht sehr wohlwollend beschrieben, liest man die Überschrift veröffentlichten Papiers: Da geht es um den Verlust der Glaubwürdigkeit – einen WUMMS habe es nur für digitale Abhängigkeit und Erpressbarkeit gegeben. Schon ein Auszug der Zwischenüberschriften vermittelt ein desaströses Bild: Nur Lippenbekenntnisse und widersprüchliches Handeln; Konsequenzen der digitalen Abhängigkeit: explodierende Ausgaben; Warnhinweise führender IT-Verbände und IT-Fachleute ignoriert; Arbeiten an den falschen digitalen Baustellen … und Vernachlässigung kritischer Entwicklungen.
Das kommentiere ich nicht mehr.

zurück zum Inhaltsverzeichnis

7.10 Schule und Digitalisierung

Das Zitat aus der Headline dieses Interviews zur Digitalisierung in der Schule sagt schon alles: „Wir hatten die Stabilität des Systems Schule unterschätzt!“ – Digitalisierung als Dauerkrise.
Trotzdem lohnt auch das ganze Interview, auch wenn es bereits im Februar 2024 erschien. Beispiel gewünscht?

„Das heißt, dass wir mit digitalen Medien die Verfolgung unserer Ziele, Interessen und Werte verstärken können. Damit wir der Digitalisierung nicht als passive Opfer ausgeliefert sind, müssen wir uns dieser Ziele, Interessen und Werte bewusst und einigermaßen einig sein. Dafür braucht es Prozesse von Selbstverständigung und Austausch sowie gemeinsame Antworten auf die Frage: Was wollen wir mit digitalen Medien verstärken – was nicht?“

zurück zum Inhaltsverzeichnis

7.11 Chatbots im Schulunterricht: Fobizz

Eine Studie mit dem Titel „Chatbots im Schulunterricht: Wir testen das Fobizz-Tool zur automatischen Bewertung von Hausaufgaben“ untersuchte das KI-gestützte Korrekturtool „KI-Korrekturhilfe“ des Unternehmens Fobizz, das Lehrkräften Unterstützung bei der Bewertung und Rückmeldung von Schülerarbeiten bieten soll. Die Studie kritisiert den allgemeinen Trend KI als schnelle Lösung für systemische Probleme im Bildungswesen einzusetzen. Die Verfasser:innen der Studie präsentierten ihre Ergebnisse auch auf dem 38C3, hier die Aufzeichnung.
Letztendlich nützen Tools nichts, wenn der angemessene Umgang damit nicht ausreichend vermittelt wird.

zurück zum Inhaltsverzeichnis

7.12 Internet Girl: Podcast zu Social Media

Über das Format eines 37-minütigen Podcasts, der sich gezielt an jüngere Menschen richtet, erreicht man sicherlich mehr im reflektierten Umgang mit Social Media als mit langen Vorträgen.
Aus der Beschreibung: Warum steht die junge Generation Social Media so kritisch gegenüber und bleibt trotzdem dauer-online? Findet sich ein Neujahrsvorsatz, mit dem ein bewussterer und gesünderer Umgang mit Instagram, TikTok und Co. funktioniert?

zurück zum Inhaltsverzeichnis

7.13 ICILS: An international perspective on digital literacy

Die International Computer and Information Literacy Study (ICILS) geht Fragen zu benötigten Skills von Schüler:innen nach, indem sie die Computer- und Informationskompetenz (CIL) und die Fähigkeiten im Bereich des rechnergestützten Denkens (CT) von Schüler:innen untersucht. Internationale groß angelegte Bewertungen (ILSAs) liefern unverzichtbare Daten, die Aufschluss darüber geben können, wie sich die Lernentwicklung der Schüler gestaltet und wie sie verbessert werden kann. Die Ergebnisse von ICILS 2023 tragen mit ihren umfangreichen Daten aus Bewertungselementen und Kontextfragebögen weiter zu dieser Datenbank bei.

zurück zum Inhaltsverzeichnis

7.14 Programm „Neustart“ in Österreich

Wir hatten bereits im Jahr 2024 dazu berichtet. In Österreich gibt es eine Initiative, die sich um Jugendliche kümmert, die als mutmaßliche Täter in Verfahren mit Kindesmissbrauchsbildern beteiligt sind und als Neustart in ein sexual- und sozialpädagogisches Programm eingebunden werden. Nun berichtet auch der ORF darüber.

zurück zum Inhaltsverzeichnis

7.15 Facebook und KI-generierte Nutzer

Jetzt bin ich ja schon mittlerweile „gesättigt“ mit KI-generierten Bildern und Texten in den wenigen Social-Media-Angeboten, die ich nutze. Wenn nun Meta laut diesem Bericht plant, Facebook zur Heimat von KI-generierten Nutzern zu machen, was kommt da auf uns zu? Meta möchte damit das Engagement steigern. Bereits jetzt werden Sicherheitsbedenken zu falschen Narrativen, die diese Klone verbreiten könnten, geäußert. Ich bin gespannt, wie die Werbepartner darauf reagieren.

Franks Nachtrag: Und scheinbar schalten sie sie schon wieder ab.

zurück zum Inhaltsverzeichnis

7.16 Datenschutzanforderungen in der Schul-IT

Der Schutz personenbezogener Daten hat in der digitalen Gesellschaft eine immer größer werdende Bedeutung. Insbesondere Bildungseinrichtungen wie Schulen müssen sich bewusst sein, dass sie mit einer Vielzahl sensibler Informationen arbeiten. So findet sich hier eine Zusammenstellung der erforderlichen Aspekte.
Die „Handreichung Datenschutzanforderungen in der Schul-IT“ umfasst auf 55 Seiten die wesentlichen Informationen und unterstützt Schulträger bei der Abgrenzung der datenschutzrechtlichen Pflichten im Zusammenspiel von Schule und Schulträger. Ziel der Handreichung ist es für Schulträger Transparenz über die Zuständigkeiten und Aufgaben im Bereich des Datenschutzes zu schaffen. Die Handreichung dient als Information, welche datenschutzrechtlichen Aufgaben es grundsätzlich gibt und welche Aufgaben von Schule oder Schulträger übernommen werden müssen. So sollen Schulträger in die Lage versetzt werden Schulen ein besseres Verständnis für ihre Datenschutz-Aufgaben zu vermitteln und gemeinsam mit den Schulleitungen Datenschutz an Schulen umzusetzen.

zurück zum Inhaltsverzeichnis

8. Franks Zugabe

8.1 Apropos KI …

Heute mal nur eine Meldung:
Es scheint so zu sein, dass KI Historikern hilft. Wer hätte es gedacht. Ob das aber (neben anderen) all die Umweltprobleme rechtfertigt? Und nur mal so als Nachtrag im Fließtext: Da sind Halluzinationen auf einmal egal?

Ach nee, da war doch noch eine Meldung:
KI killt Stock Photos. Das sind die Fotos, die jemand anders gemacht hat, damit wir sie dann gegen Lizenzgebühr oder lizenzfrei in unseren Präsentationen nutzen können. Und der Bedarf an solchen Fotos scheint zu Zeiten von KI-generierten Fotos soweit zurück zu gehen, dass zwei große Anbieter zusammengehen, um nicht unterzugehen.

zurück zum Inhaltsverzeichnis

8.2 Ein Update zur ePA, mal wieder …

Ach ja, die ePA. Herr Sonneborn (Erinnern Sie sich? Der aus Brüssel?) hat da auch eine Meinung dazu. Warum er die bei Youtube als Text veröffentlicht? Beats me. Vielleicht, weil er sie nicht beim Meta-Konzern oder auf X (ehemals Twitter) äußern will?
Inhaltlich bietet (u.a.) er eine Widerspruchsvorlage.
Apropos ePA, apropos X (ehemals Twitter): Unser (noch) amtierender Gesundheitsminister schreibt dort, dass die ePA erst dann kommt, wenn „alle Hackerangriffe, auch des CCC, technisch unmöglich gemacht worden sind.“
Also 2047?
Das BMG hält übrigens trotzdem am Starttermin (15.01.2025) fest. War ja klar …

zurück zum Inhaltsverzeichnis

8.3 Und? Fühlen Sie sich sicher? Bitlocker beim 38C3

In aller gebotenen Kürze: Ein Öffnen des Geräts ist nicht mehr notwendig, es reicht ein physikalischer (kurzer) Zugriff, um die Bitlocker-Verschlüsselung zu kompromittieren. Hier gehts zum Vortrag, hier ist ein Bericht darüber.
Und? Fühlen Sie sich sicher?

zurück zum Inhaltsverzeichnis

8.4 Hirn-Implantate

Wollen Sie mal etwas Gruseliges lesen?
Wie wäre es mit folgendem Zitat?

„Ein von einer Nähmaschine inspirierter chirurgischer Kleinroboter stichele dabei rund 1000 Elektroden binnen einer halben Stunde ins Gehirn.“

Es geht übrigens um ein Neuralink-Implantat, ein Produkt aus einem der vielen Unternehmen des Herrn Musk (schon das macht die Meldung gruselig, ganz ohne das Nähmaschinen-Bild).

zurück zum Inhaltsverzeichnis

8.5 Y2025

Erinnern Sie sich noch an den Millenium-Bug? Hier ist eine Abart davon: Der Y2025-Bug. Den gab es nicht nur in Spanien, auch in Herford. Flirt ist übrigens ein lustiger Name für einen Zug.

zurück zum Inhaltsverzeichnis

8.6 ShredOS

ShredOS is a stripped-down operating system designed to destroy data.
Da will ich doch gleich noch mal Mr. Robot schauen. So geht Entsorgung von Datenträgern!

zurück zum Inhaltsverzeichnis

8.7 Google Is Allowing Device Fingerprinting

War ja klar, dass sie das machen. Wie heißt es so schön im Artikel? Biggest Privacy Erosion in 10 Years?

zurück zum Inhaltsverzeichnis

8.8 Apropos Tracking: CSS erlaubt User-Tracking in E-Mails

CSS = Collecting Spy Sheets? Das kenne ich eigentlich anders. Aber schön zu lesen, wie wir auch getrackt werden können (und ja, ich schreibe üblicherweise nur reine Text-Mails (siehe z.B. bei meiner Anmerkung zu 3.1) und habe meinen Mailclient auch so eingestellt, dass er mir Mails nur als Text-Mails anzeigt. Aber wer außer mir macht das noch? Genau …).

zurück zum Inhaltsverzeichnis

8.9 Und noch ein Abo

Dieses Mal aus dem Hause Bosch. Also kann ich nun wählen, ob ich von Dieben (sie klauen mein Rad) oder von Bosch (sie verlangen Abo-Gebühren für einen Akku?) ausgeraubt werde? Schöne neue Welt.

zurück zum Inhaltsverzeichnis

9. Die gute Nachricht zum Schluss

9.1 Digital Detox: Hilfe zur Selbsthilfe

Die srh Fernhochschule „The Mobile University“ informiert auf ihren Seiten zum „Digitalen Detox“ und warum immer mehr Menschen Social-Media-Konten löschen. Es wird erklärt, was hinter diesem Trend steckt und wie die digitale Auszeit funktionieren kann.
Ob es dabei nur um eine kurze Social-Media-Pause oder das radikale Löschen von Social-Media-Konten geht – das Ziel ist dasselbe: mehr Klarheit, weniger Stress und ein bewussterer Umgang mit der eigenen Zeit. Mit einigen Tipps kann das auch erreicht werden.
Damit reduziert sich auch das Risiko der negativen Folgen des digitalen Overloads. Unsere ständige Vernetzung und der intensive Konsum digitaler Medien können ungesunde Auswirkungen auf Körper, Geist und Beziehungen haben. Ein „digitaler Overload“ entsteht, wenn die digitale Welt so dominant wird, dass sie unser Wohlbefinden und unsere Alltagsfunktionen beeinträchtigt. Hier sind einige der häufigsten negativen Folgen, die durch übermäßigen digitalen Konsum entstehen können: FOMO (Fear of Missing Out): Psychologische Aspekte der sozialen Medien, Auswirkungen auf die Konzentrationsfähigkeit, das Risiko von Burnout und digitaler Erschöpfung und der Einfluss auf persönliche Beziehungen und soziale Interaktionen. Bei den Tipps geht es um die bewusste Steuerung der Bildschirmzeit und das Setzen täglicher Limits, die Etablierung von Offline-Routinen und das Einlegen von Pausen, um den Einsatz von Digital Detox Apps, die Reduzierung der Push-Nachrichten und schließlich auch um die Pflege von Hobbies in Offline-Zeitfenstern.
Sicher nicht nur zufällig gibt es an der Hochschule auch entsprechende Studiengänge in Kommunikation, Psychologie oder Prävention und Gesundheitspsychologie.

zurück zum Inhaltsverzeichnis