Hier ist der 1. Blog-Beitrag „Menschen, Daten, Sensationen – Rudis Bericht aus dem Datenzirkus, ergänzt um Franks Zugabe (KW 30/2024)“ – ein Zwischenspiel – Die DVD-Edition.
Was ist denn das? Der 1. Blog-Beitrag? Nein, der 1. Blog-Beitrag – ein Zwischenspiel. Immer, wenn zu wenig Zeit ist, um einen vollständigen Blog-Beitrag zu bringen, aber genug aktuelle Veranstaltungen auf die Veröffentlichung warten, kann es ein Zwischenspiel geben – das ist eine Art Light-Variante eines Blog-Beitrags mit nur ein paar ausgewählten Meldungen pro Kategorie. Und da wir das nun das erste Mal durchspielen, ist dieses der 1. Blog-Beitrag – ein Zwischenspiel in der DVD-Edition.
Da wir Ihnen also wie gerade erklärt die Veranstaltungen dieser Woche nicht vorenthalten möchten, gibt es heute ein Zwischenspiel. Beim nächsten Mal wird es dann wieder mehr…
- Aufsichtsbehörden
- Rechtsprechung
- Gesetzgebung
- Künstliche Intelligenz und Ethik
- Veröffentlichungen
- Tätigkeitsberichte der Datenschutzaufsichten
- Bundesamt für Verfassungsschutz: Schutz vor Sabotage
- Anforderungen an Verschulden als Grundlage einer Sanktion
- Veranstaltungen
- Universität des Saarlandes: „Generative KI-Systeme und Datenschutz: Datenlöschung“ -neu-
- „Schlagabtausch“ auf LinkedIn zu NIS 2 -neu-
- EDPS: Menschlicher Einfluss bei automatisierter Entscheidungsfindung
- EU-Kommission: “Synthetic Data for AI Conference” -neu-
- Stiftung Datenschutz: „Datenschutz am Mittag“ – Gesundheitsforschung und Datenschutz
- Stiftung Datenschutz: DatenTag zu „Soziale Medien und Datenschutz“
- Gesellschaftspolitische Diskussionen
- Sonstiges / Blick über den Tellerrand
- Franks Zugabe
- Die gute Nachricht zum Schluss
Wir wünschen eine gute Lektüre,
Rudi Kramer und Frank Spaeing
1 Aufsichtsbehörden
1.1 Singapur: Leitfaden zu synthetischen Daten
Die Datenschutzaufsicht Singapore PDPC hat einen Leitfaden zur Generierung synthetischer Daten vorgeschlagen und veröffentlicht, um Unternehmen dabei zu helfen Generierungstechniken für synthetische Daten und potenzielle Anwendungsfälle dafür, insbesondere für KI, zu verstehen. Der Leitfaden „Privacy Enhancing technology (PET): Proposed Guide on Synthetic Data Generation” wird als Ressource im Rahmen der Privacy Enhancing Technology (PET) Sandbox angeboten, die auch eine Checkliste mit bewährten Verfahren enthält, die bei der Erstellung von synthetischen Daten angewendet werden sollten, um sich vor einem möglichen Risiko einer erneuten Identifizierung zu schützen.
Wer sich für das Thema interessiert, findet auch in diesem LinkedIn-Beitrag etwas zu dem Thema.
1.2 FTC: Hashing ist keine Anonymisierung
Die US-amerikanische Federal Trade Commission (FTC) stellt in einem aktuellen Beitrag klar, dass allein ein Verhashen eines Datensatzes nicht dessen Anonymisierung bedeutet. Dabei verweist sie auch auf bereits im Jahr 2012 getätigte Äußerungen.
Dazu passt gut eine Veröffentlichung aus dem Jahr 2016, welche sich mit den verschiedenen Grautönen und der Bewertung der Möglichkeit einer Re-Identifizierung befasst.
2 Rechtsprechung
2.1 OLG Frankfurt: MS Advertising bleibt auch für Cookies verantwortlich
Das OLG Frankfurt informiert in einer Pressemeldung, dass die Microsoft-Tochter MS Advertising für die mit ihrer Unternehmenssoftware begangene Rechtsverletzung hafte, wenn Endnutzer nicht in die Speicherung von Cookies auf ihren Endgeräten gegenüber den Webseiten-Betreibern, die Cookies verwenden, einwilligen.
Eine Entlastung über AGB von Microsoft gegenüber den Webseitenbetreibern sei hier nicht möglich. Die Entscheidung selbst ist noch nicht veröffentlicht, sie erfolgte im Eilverfahren und ist nicht anfechtbar. Mehr dazu in der Pressemeldung.
2.2 Luxemburg: Bußgeld bei unzureichendem Einbezug des Datenschutzbeauftragten
In Luxemburg bestätigte das Gericht eine Entscheidung der dortigen Datenschutzaufsicht, die einem Unternehmen 18.000 Euro Bußgeld auferlegte, weil der benannte Datenschutzbeauftrage nicht unmittelbar in alle datenschutzrelevanten Angelegenheiten eingebunden war. Im konkreten Fall ging das Gericht auch davon aus, dass dem Datenschutzbeauftragten nicht genügend Ressourcen zur Verfügung gestellt wurde. Eine Besprechung der Entscheidung finden Sie hier.
3 Gesetzgebung
3.1 EU-Kommission: 2. Bericht zur DS-GVO
Die EU-Kommission hat ihren 2. Bericht zur Anwendung der DS-GVO veröffentlicht. Vorausgegangen war eine öffentliche Konsultation. Dabei gingen 260 Rückmeldungen ein. Aus dem Bericht ist ersichtlich, dass in Deutschland die Datenschutzbehörden die meisten Untersuchungen aus eigener Initiative einleiten (7.647), hier die meisten Beschwerden registriert wurden (32.300) und die meisten Bußgelder auch in Deutschland verhängt wurden (2.106). Im Jahr 2022 haben die Datenschutzbehörden in Deutschland die meisten Bescheide zur Verhängung einer Abhilfemaßnahme erlassen (3.261) (Quelle: „Mitteilung – COM(2024)357“ auf der verlinkten Seite, dort die Seiten 6 und 7 und Fußnoten 29 bis 31).
3.2 Think Tank des EP: Schutz der Privatsphäre im Bereich der Neurowissenschaften
Der Think Tank des Europäischen Parlaments hat ein Papier mit dem Titel „Der Schutz der geistigen Privatsphäre im Bereich der Neurowissenschaften – Gesellschaftliche, rechtliche und ethische Herausforderungen“ veröffentlicht. Darin betrachtet er die Folgen, die sich aus den Fortschritten in der (neuro-)technologischen Entwicklung ergeben. Diese führen zu einer Zunahme der Nutzung und Zugänglichkeit von Neurotechnologien (NT), die es ermöglichen die Gehirnaktivität durch neurotechnologische Geräte aufzuzeichnen, zu analysieren und zu manipulieren. Während sie ursprünglich nur für klinische Zwecke eingesetzt wurden, werden sie immer attraktiver für gesunde Bevölkerungsgruppen, die bereit sind ihre kognitiven oder körperlichen Fähigkeiten zu verbessern.
Geräte für Verbraucher können von Laien ohne Aufsicht in Arbeits-, Bildungs- und Unterhaltungsumgebungen erworben und verwendet werden. Dieser Sachverhalt wirft eine Vielzahl offener Fragen und die Möglichkeit von Bedrohungen für die Datensicherheit und den Schutz der Privatsphäre sowie neuropsychologische, ethische und gesellschaftliche Implikationen auf. Aus diesem Grund wurde 2017 die Neurorights Foundation (NRF) gegründet, um diesen Fragen nachzugehen, sie zu diskutieren und für die Öffentlichkeit sichtbar zu machen. Die Studie befasst sich mit den Behauptungen und Vorschlägen der NRF und bewertet die Notwendigkeit ihrer vorgeschlagenen „Neurorechte“. Auf disziplinarische Bewertungen der anstehenden Fragen folgen Empfehlungen und politische Optionen. Es gibt dazu auch einen Anhang mit einer Zusammenfassung.
3.3 Umsetzung der NIS-2-Richtlinie
Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung der NIS-2-Richtlinie und zur Regelung wesentlicher Grundzüge des Informationssicherheitsmanagements in der Bundesverwaltung (NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz) mit Stand 22.07.2024 verabschiedet und der EU-Kommission zur Notifizierung zugeleitet.
Das BSI bietet dazu bereits Informationen und Unterstützungsangebote wie FAQ an. Kein Wunder, dass nach dem weltweiten Ausfall der IT auch breit darüber berichtet wird.
4 Künstliche Intelligenz und Ethik
4.1 bidt: Dritte Ausgabe des Magazins veröffentlicht
Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) veröffentlichte sein Drittes Magazin über ihre Forschung zum digitalen Wandel. Darin widmet sich das Dossier dem Thema generative künstliche Intelligenz und dem Dreiklang Verständnis, Vertrauen, Verantwortung. Neben dem technischen Verständnis geht es dabei darum die gesellschaftlichen, rechtlichen und ethischen Implikationen von generativer KI zu verstehen. Welche Rolle spielt das Vertrauen in die Ko-Kreationen von Menschen und generativer KI? Die Expertinnen und Experten des bidt geben in Impulsbeiträgen und Interviews Einblicke in zentrale Fragestellungen ihres neuen Forschungsschwerpunkts.
Daneben gibt es die bidt-Wissenslandkarte oder auch die Hintergründe zum Gesetz gegen digitale Gewalt. Auch werden die Ergebnisse des „bidt-Digitalbarometer.international“ in der Vertretung des Freistaates Bayern bei der EU dargestellt.
4.2 Sicherheitslücken bei LLM durch Prompts in der Vergangenheit?
Können Sprachmodelle so manipuliert werden, dass ungewollte Ergebnisse provoziert werden? Nach diesem Bericht entdeckten Forscher eine einfache Methode, um die Schutzmechanismen führender KI-Sprachmodelle auszuhebeln: Werden potenziell schädliche Anfragen in die Vergangenheitsform umformuliert, geben viele Modelle detaillierte Antworten, die sie normalerweise verweigern würden. Diese Methode wurde systematisch an sechs State-of-the-Art-Sprachmodellen evaluiert. Die wissenschaftliche Arbeit mit dem Titel „Does Refusal Training in LLMs Generalize to the Past Tense?” finden Sie hier.
4.3 Ofcom: Red Teaming für Generated AI-Bedrohungen
Red Teaming liegt vor, wenn ethische Hacker von ihrem Unternehmen autorisiert werden die Taktiken, Techniken und Verfahren (Tactics, Techniques, Procedures, TTPs) echter Angreifer gegen ihre unternehmenseigenen Systeme nachzuahmen. So nach einer Veröffentlichungen der IBM. Man kann dies auch für andere Szenarien übertragen, z.B. um die Belastbarkeit vertraglicher Gestaltungen bei Klagen zu prüfen – sofern die zuständige Fachabteilung nicht darlegt, dass sie selbst von ihrer Qualität überzeugt ist, eigentlich keine Zeit habe und rechtliche Argumentationen zu Betriebsgeheimnissen gehören – und Verantwortliche finden, die sich auf solche Darlegungen einlassen. Die britische Aufsicht über Kommunikationsdienste scheint jedenfalls nicht zu den Aufsichtseinheiten zu gehören, die sich auf diese Ausreden einlassen würde. Sie empfiehlt auf ihrer Seite sogar ein Red Teaming für GenAI, um Risiken und Vorteile von Online-Sicherheiten aufzudecken.
In ihrem Diskussionspapier „Red Teaming for GenAI Harms” untersuchen sie, wie sich Red Teaming – als eine Art der Bewertung von KI-Modellen – von anderen Bewertungstechniken unterscheidet. Dabei erläutert sie die Schritte, die zu einer Red-Team-Übung gehören, skizziert eine Fallstudie, die den potenziellen Ressourcenbedarf veranschaulicht, bewertet die Stärken und Grenzen dieser Methode und fasst 10 Praktiken zusammen, die Unternehmen heute anwenden können, um die Wirkung der bereits durchgeführten Red-Team-Übungen zu maximieren.
Ofcom kündigt auch an die Vorzüge und Grenzen des Red Teaming weiter zu untersuchen und ermuntert zu Rückmeldungen der Meinung der Interessengruppen dazu.
5 Veröffentlichungen
5.1 Tätigkeitsberichte der Datenschutzaufsichten
Über das zusammengeführte Angebot der Stiftung Datenschutz hatten wir bereits berichtet. Erfreulicherweise wurde ich auf diese Webseite hingewiesen, die ebenfalls Tätigkeitsberichte der Deutschen Datenschutzaufsichten anbietet, diese können aber auch nach Stichworten durchsucht werden. Stark!
Franks Nachtrag: Wie so oft erkaufen Sie den zusätzlichen Service durch intensiveres Tracking und den Einsatz nicht-europäischer Dienstleister… Trotzdem ein interessantes Angebot.
5.2 Bundesamt für Verfassungsschutz: Schutz vor Sabotage
Das Bundesamt für Verfassungsschutz veröffentlichte in seinen Sicherheitshinweisen für die Wirtschaft eine Information zum „Schutz vor Sabotage“. Demnach bestehe eine erhöhte Gefährdung in Bezug auf Sabotageaktivitäten beziehungsweise entsprechende Vorbereitungshandlungen in Deutschland. Der aktualisierte Sicherheitshinweis für die Wirtschaft zum Schutz vor Sabotage informiert daher über die gegenwärtige Erkenntnislage zu möglichen Einfallstoren und Vorgehensweisen. Die enthaltenen Handlungsempfehlungen sollen Unternehmen und Beschäftigten dabei helfen sich effektiv und eigenverantwortlich gegen Angriffsvorbereitungen und -versuche zu schützen.
5.3 Anforderungen an Verschulden als Grundlage einer Sanktion
Diese gut nachvollziehbare Besprechung eines Urteils des BVwG in Österreich zu den Anforderungen an ein Verschulden bei einer Entscheidung über eine Sanktion ist empfehlenswert.
Zu klären war, ob ein Unternehmen hätte wissen können, dass die gewählte Einwilligung nicht den gesetzlichen Anforderungen genügte. Das Urteil – und noch besser die Besprechung – gehen dabei sehr systematisch vor.
5.4 Veranstaltungen
5.4.1 Universität des Saarlandes: „Generative KI-Systeme und Datenschutz: Datenlöschung“ -neu-
30.07.2024, 17:00 – 19.00 Uhr, online: Im Rahmen eines Masterstudiengangs wird diese frei zugängliche Veranstaltung der Universität des Saarlandes unter dem aussagekräftigen Titel „Hallo ChatGPT, lösch meine Daten“ angeboten. Dabei diskutieren kompetente Vertreter der Aufsicht, der Wirtschaft und der Beratung unter Moderation der Wissenschaft zu den datenschutzrechtlichen Fragestellungen des Einsatzes generativer KI. Weitere Informationen und Teilnahmelink hier.
5.4.2 „Schlagabtausch“ auf LinkedIn zu NIS 2 -neu-
31.07.2024, 13:00 – ? Uhr, online: Mit dem bis März 2024 zuständigen Abteilungsleiter Cyber- und Informationssicherheit im Bundesministerium des Innern und für Heimat (BMI) wird die aktuelle Entwicklung insbesondere zur Umsetzung der NIS-2-Richtlinie besprochen. Dabei geht es u.a. um das Gesetzgebungsverfahren, die gesetzliche IT-Sicherheit in EU, Bund, Ländern und Kommunen, die Bedeutung des NIS2UmsuCG für die Unternehmen, den Umgang des BMI und BSI mit wichtigen und besonders wichtigen Einrichtungen, den Anspruch des Staates auf IT-Sicherheit und die Befugnisse des BSI in Sachen Informationen, Meldungen, Untersuchungen, Warnungen und Bußgeldern. Den Link dazu finden Sie hier.
5.4.3 EDPS: Menschlicher Einfluss bei automatisierter Entscheidungsfindung
03.09.2024, Uhrzeit noch offen, Karlstadt (Schweden), Brüssel, hybrid: Der EDPS kündigt zusammen mit der Universität von Karlstadt (Schweden) eine hybride Veranstaltung an, bei der es um die menschliche Überwachung bei automatisierter Entscheidungsfindung geht. Das Thema tangiert unmittelbar Art. 22 DS-GVO und ist auch für den Einsatz von KI mit personenbezogenen Daten und die Anforderungen aus dem AI Act relevant. Weitere Informationen auch zur Anmeldung finden sich hier.
5.4.4 EU-Kommission: “Synthetic Data for AI Conference” -neu-
10.09.2024, 10:30 – 15:30 Uhr, Brüssel: Die Verwendung synthetischer Daten ist eine Möglichkeit, um auf die steigende Nachfrage nach Daten zu reagieren, um Datenanalyse und KI voranzutreiben, insbesondere in Fällen, in denen sensible Informationen im Spiel sind. In der Veranstaltung wird das Potenzial synthetischer Daten besprochen und mögliche Grenzen bei der Gewährleistung des vollständigen Datenschutzes untersucht. Weitere Informationen und Anmeldung hier.
5.4.5 Stiftung Datenschutz: „Datenschutz am Mittag“ – Gesundheitsforschung und Datenschutz
10.09.2024, 13:00 – 14:30 Uhr, online: Die Stiftung Datenschutz kündigt wieder im Format „Datenschutz am Mittag“ ein aktuelles Thema an, diesmal geht es um Gesundheitsdatenforschung und Datenschutz: Was ändert sich durch das Gesundheitsdatennutzungsgesetz (GDNG) und den EU-Gesundheitsdatenraum (EHDS)? Dazu informiert eine renommierte Rechtsanwältin. Weitere Informationen und Anmeldung hier.
5.4.6 Stiftung Datenschutz: DatenTag zu „Soziale Medien und Datenschutz“
19.09.2024, 10:00 – 16:00 Uhr, Berlin und online: Am DatenTag der Stiftung Datenschutz wird das Thema „Soziale Medien und Datenschutz“ thematisiert. Mehr dazu hier.
6 Gesellschaftspolitische Diskussionen
6.1 Ungleichbehandlung durch Digitalzwang?
Gibt es ein Recht auf analoge Vorgänge? Damit befasst sich diese Veröffentlichung unter dem Titel „Ungleichbehandlung durch Digitalzwang“, der Aspekte des Art. 3 Grundgesetz im Hinblick auf digitale / analoge Teilhabe betrachtet.
Ein praktisches Beispiel haben wir ja jetzt mit der Bahncard, die es seit Juni 2024 nur noch digital gibt – oder als PDF.
Franks Nachtrag: Den Digitalisierungszwang (auch durch die Deutsche Bahn) hatten wir ja schon…
6.2 USA: Leitfaden KI in der Erziehung für Entwickler
Heute und in Zukunft werden immer mehr Modelle und Fähigkeiten der Künstlichen Intelligenz (KI) in Produkte einfließen, die speziell für den Bildungsbereich bestimmt sind. Das US-Bildungsministerium ist daher bestrebt innovative Fortschritte in der Bildungstechnologie zu fördern, um das Lehren und Lernen in den Bildungssystemen des Landes zu verbessern und Entwickler bei der Entwicklung von Produkten und Dienstleistungen zu unterstützen, die KI für den Bildungsmarkt nutzen. Aufbauend auf dem vorherigen Bericht des Ministeriums „Artificial Intelligence and the Future of Teaching and Learning“ soll der Leitfaden „Designing for Education with Artificial Intelligence: An Essential Guide for Developers” Produktverantwortliche und ihre Teams aus Innovatoren, Designern, Entwicklern, Mitarbeitern mit Kundenkontakt und Rechtsteams bei der Entwicklung von KI-Produkten und -Dienstleistungen für den Einsatz im Bildungsbereich unterstützen, damit sie sich um Sicherheit und Vertrauen bemühen. Diese Zielgruppe ist breiter als die, die große Sprachmodelle (LLMs) bauen oder Chatbots einsetzen; sie umfasst nach Ansicht der Herausgeber alle Möglichkeiten, wie bestehende und neu entstehende KI-Funktionen zur Förderung gemeinsamer Bildungsziele genutzt werden können. Zum Leitfaden gibt es auch ein ca. 60-minütiges Video auf YouTube.
7 Sonstiges/Blick über den Tellerrand
7.1 Bayerisches Bündnis für Toleranz: Anlaufstellen für Meldestellen
Zum internationalen Aktionstag für die Betroffenen von Hasskriminalität am 22. Juli 2024 setzte das Bayerische Bündnis für Toleranz seine Online-Kampagne im Rahmen des Schwerpunktthemas „Gemeinsam für Respekt und Toleranz im Netz“ mit einem neuen Video fort. Unter https://www.bayern-gegen-hass.de/ finden sich verschiedene Anlaufstellen, bei denen Beleidigung, Bedrohungen, Volksverhetzung, sowie extremistische Parolen und Kennzeichen gemeldet werden können.
7.2 BLM-Studie „Algorithmen und Künstliche Intelligenz im Alltag von Jugendlichen
Ob auf TikTok oder mit ChatGPT: Algorithmen und Künstliche Intelligenz sind im Medienalltag von Jugendlichen omnipräsent. Doch was wissen sie darüber und wie nutzen sie die Anwendungen? Die BLM-Studie „Algorithmen und Künstliche Intelligenz im Alltag von Jugendlichen“ zeigt, dass es noch Nachholbedarf bei der Wissensvermittlung und dem Aufbau von KI-Kompetenz gibt.
Aus der Studie leitet das Forschungsteam drei Handlungsempfehlungen ab: 1. Wissensvermittlung zu Algorithmen und KI ausbauen, 2. Mediensozialisationsaufgabe wahrnehmen und 3. Offenheit zeigen. Der Forschungsbericht kann hier auch als Druckversion bestellt werden. Die Bayerische Landeszentrale für neue Medien (BLM) will in seinen medienpädagogischen Angeboten wie dem Medienführerschein oder in den Veranstaltungen die Entwicklungen bei KI und Algorithmen noch mehr in den Fokus nehmen.
8. Franks Zugabe
8.1 Apropos KI …
Trotz Zwischenspiel habe ich ein paar der aufgelaufenen Beiträge zu KI schon hier für Sie:
- Entwickler sind nicht von KI begeistert, ihre Manager schon. Da muss ich ja nun nicht so viel zu schreiben, oder? Machen wir so weiter: 77% Of Employees Report AI Has Increased Workloads And Hampered Productivity, Study Finds. Ein Zitat aus der Studie:
Despite 96% of C-suite executives expecting AI to boost productivity, the study reveals that, 77% of employees using AI say it has added to their workload and created challenges in achieving the expected productivity gains. Not only is AI increasing the workloads of full-time employees, it’s hampering productivity and contributing to employee burnout.
To add insult to injury, nearly half (47%) of employees using AI say they don’t know how to achieve the expected productivity gains their employers expect, and 40% feel their company is asking too much of them when it comes to AI. Workers are feeling the strain from rising productivity demands, with one in three full-time employees saying they will likely quit their jobs in the next six months due to feeling overworked and burnt out. The majority of global C-suite leaders (81%) acknowledge they have increased demands on their workers in the past year. Consequently, 71% of full-time employees are burned out, and 65% report struggling with their employer’s demands on their productivity.Kommt das jetzt unerwartet für irgendjemand?
- OpenAI macht wohl sechs Milliarden Miese dieses Jahr (im Artikel ist nur von fünf Milliarden die Rede, mathematisch sind es mehr sechs Milliarden, aber egal). Vielleicht sollten sie bei Amazon schauen, was die jetzt probieren. Nachdem Amazon mit der Alexa-Produktreihe wohl schon zweistellige Milliardenbeträge versenkt hat, denken sie nun über ein Abo-Modell nach (wir berichteten bereits im letzten Anstrich). Vielleicht sollte mal jemand über die ökonomischen Vorteile von KI forschen? Ach, das wurde schon gemacht? Bitte sehr: All the existential risk, none of the economic impact. That’s a shitty trade.
- Kommen wir zu etwas ganz anderem: Von der Leyen gives nod to €100 billion ‘CERN for AI’ proposal. Weil KI ja so ökonomisch gut funktioniert, oder wie? Gut, dass da schon das Sparen beginnt. 😳😤
- OpenAI versucht derweil andere Geschäftsmodelle zu erschließen: OpenAI testet KI-Suchmaschine SearchGPT. Bei Google klappt das mit dem Geldverdienen bei der Suchmaschine schließlich auch…
8.2 Apropos Olympia …
Die Eröffnungsfeier der olympischen Spiele in Paris war doch mal was ganz anderes. Und trotz des Regens waren manche Aufnahmen sicherlich mit Drohnen aufegnommen worden. Wie nachzulesen ist, wird auch weiterhin mit Kameradrohnen gearbeitet, nur ist es nun eher unsportlich.
8.3 Podcast Tipp – Prompt Injections
Dieser Podcast-Tipp hätte auch gut zu Apropos KI … gepasst, aber da wäre er vielleicht untergegangen, deswegen also hier: Prompt Injections, die siebte Folge des Passwort-Podcasts.
9. Die gute Nachricht zum Schluss
9.1 Smartphones für Schüler:innen?
Nach den Sommerferien wird es in vielen Familien die Diskussion geben – bekommt das Schulkind nun ein Smartphone oder nicht? Oft gibt es auch gar keine Diskussion – die Kinder bekommen es einfach. Dabei nimmt die Diskussion zu, dass Schulkindern ein Smartphone erst ab 14 Jahren bereitgestellt wird. Dazu gibt es diese Initiative Smarter Start ab 14 und hier einen kurzen Fernsehbericht (ca. 9.30 Min) dazu, in dem auch über Konzentrationsschwächen und das Belohnungsschema im Geschäftsmodell der Social-Media-Algorithmen besprochen werden.
Das hält viele Unternehmen aber nicht davon ab zu glauben, in sozialen Medien wie TikTok künftige Beschäftigte zu gewinnen – Vorbildfunktion könnte anders aussehen.