KE_3_Ethik
digitale Ethik Fernuni Hagen
digitale Ethik Fernuni Hagen
Kartei Details
Karten | 162 |
---|---|
Sprache | Deutsch |
Kategorie | Religion/Ethik |
Stufe | Universität |
Erstellt / Aktualisiert | 01.12.2024 / 11.06.2025 |
Weblink |
https://card2brain.ch/box/20241201_ke3ethik
|
Einbinden |
<iframe src="https://card2brain.ch/box/20241201_ke3ethik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Maßnahmen wie der Digital Services Act in Europa fördern Transparenz, Rechenschaftspflicht und Schutz der Nutzer vor missbräuchlichen Praktiken.
Skandale wie bei Cambridge Analytica oder Buchbinder zeigen, dass personenbezogene Daten oft unzureichend geschützt sind, was das Vertrauen in digitale Plattformen erschüttert.
Netzwerkeffekte führen dazu, dass dominante Plattformen wie WhatsApp ihre Marktmacht ausbauen, Wettbewerb unterbinden und Nutzerbindungen verstärken.
Mitarbeitende müssen befähigt werden, mit neuen Technologien umzugehen, um die Effizienz der digitalen Transformation voll auszuschöpfen und Arbeitsplätze menschenfreundlich zu gestalten.
Lernende Algorithmen ermöglichen proaktive Wartungen, wodurch die Lebensdauer von Maschinen verlängert wird.
Neben Innovationen und Effizienzsteigerungen entstehen Risiken wie Datenmissbrauch, mangelnde Transparenz und die Gefahr von Monopolbildung.
Regulierung wie der Digital Services Act soll Transparenz fördern, Nutzerrechte schützen und die Verantwortlichkeit von Plattformen erhöhen.
Sie ermöglicht Effizienzsteigerungen, Flexibilität in der Produktion und die Anpassung an Marktanforderungen, was die globale Wettbewerbsfähigkeit erhöht.
Worauf zielen die Regulierungen der EU Behörden im Bereich digitale Transformation ab und wie heißen sie?
Die Regulierungen der EU im Bereich der digitalen Transformation zielen darauf ab, die digitale Souveränität, Grundrechte, Wettbewerb, Datensicherheit und Innovationsfähigkeit innerhalb des digitalen Binnenmarkts zu schützen und zu fördern.
1. Digital Services Act (DSA)
Ziel: Schutz der Grundrechte im digitalen Raum
2. Digital Markets Act (DMA)
Ziel: Sicherstellung fairen Wettbewerbs in der digitalen Wirtschaft
3. Datenschutz-Grundverordnung (DSGVO / GDPR)
Ziel: Schutz personenbezogener Daten in der gesamten EU
4. AI Act (Gesetz über Künstliche Intelligenz) (in Verabschiedung, Stand 2025)
Ziel: Sicherer und vertrauenswürdiger Einsatz von Künstlicher Intelligenz
5. Data Governance Act (DGA)
Ziel: Förderung der sicheren und ethischen Nutzung von Daten
6. Data Act
Ziel: Faire Nutzung und Zugang zu industriellen und nicht-personenbezogenen Daten
Zusammenfassung – Die Ziele sind:
- Schutz von Grundrechten und Daten
- Förderung von Wettbewerb und Innovation
- Sicherer und fairer Einsatz von KI und Plattformen
- Schaffung eines fairen digitalen Binnenmarkts in der EU
Was ist der Digital Markets Act (DMA)?
Der DMA richtet sich explizit gegen große Plattformbetreiber wie Google, Meta, Amazon und Microsoft.
Ziel ist es, unfairen Wettbewerb zu verhindern und die Rechte der Nutzer zu stärken. Unternehmen, die als „Gatekeeper“ betrachtet werden, unterliegen ab 2023 einer Reihe von Pflichten und Verboten. Dazu gehören die Möglichkeit für Nutzer, vorinstallierte Apps zu deinstallieren, der Zugang zu Leistungsmessinstrumenten des Gatekeepers für gewerbliche Kunden sowie die Verhinderung von Praktiken, die die Offenheit digitaler Märkte gefährden.
Der DSA zielt darauf ab, gesellschaftliche Probleme im Internet wie Hassrede und Desinformation zu bekämpfen und die Rechte der Nutzer zu schützen. Betreiber von Onlineplattformen und Diensten werden verpflichtet, illegale Inhalte stärker zu bekämpfen und Mechanismen zur Meldung solcher Inhalte bereitzustellen. Darüber hinaus werden Maßnahmen zur Transparenz von algorithmischen Systemen und zur Kennzeichnung von Werbung ein- geführt.
Der DGA fördert die gemeinsame Nutzung von Daten innerhalb des europäischen Wirtschaftsraums. Unternehmen können digitale Plattformen für den Austausch von Daten aufbauen und als unabhängige Datentreuhänder fungieren. Dabei werden Sicherheits- und Schutzmechanismen implementiert, um den Missbrauch von Daten zu verhindern. Das Gesetz erleichtert auch die Weiterverwendung bestimmter Kategorien geschützter Daten des öffentlichen Sektors.
Der Data Act legt Bedingungen für die Wertschöpfung aus nicht-personenbezogenen Daten fest. Kleine und mittlere Unternehmen sowie Endnutzer sollen stärker als zuvor von einem erleichterten Zugang zu industriellen Daten profitieren. Maßnahmen zur Verbesserung der Datenportabilität und der Interoperabilität werden eingeführt, um eine EU-weite Datenwirtschaft zu ermöglichen.
Der EHDS schafft einen Rahmen für den Austausch von primären und sekundären Gesundheitsdaten innerhalb der EU. Primäre Gesundheitsdaten wie elektronische Verschreibungen und Laborergebnisse können von Bürgern eingesehen und kontrolliert werden. Sekundärnutzung von Gesundheitsdaten zu Forschungszwecken wird ermöglicht, jedoch unter strikten Datenschutzvorkehrungen.
Der AI-Act reguliert algorithmische Systeme auf Basis von KI-Techniken und Konzepten. Anbieter von KI-Systemen mit hohem Risiko müssen verschiedene Grundsätze einhalten, um ihre Produkte in der EU anbieten zu können. Maßnahmen zur Transparenz, Nachvollziehbarkeit und menschlichen Aufsicht werden eingeführt, um sicherzustellen, dass KI-Anwendungen die Grundrechte der Menschen respektieren.
Was versteht man unter den Begriffen Privacy, Security und Safety?
- Privacy: Schutz personenbezogener Daten vor unbefugter Kenntnisnahme, Veränderung oder Nutzung.
- Security: Sicherheit vor beabsichtigten Angriffen.
- Safety: Sicherheit vor unbeabsichtigten Ereignissen.
Wie wird der deutsche Begriff „Sicherheit“ seit der Antike definiert?
„Sicherheit“ wird als Zustand der Gewissheit, Zuverlässigkeit und Unbedrohtseins verstanden.
Ursprünglich auf die Verfassung von Individuen bezogen, wurde der Begriff später zu einer politischen, wirtschaftlichen und gesellschaftlichen Idee weiterentwickelt.
Der Aufsatz definierte Privatsphäre als das Recht, in Ruhe gelassen zu werden. Er wurde durch die Verbreitung der Fotografie inspiriert und legte den Grundstein für moderne Diskussionen über Datenschutz und Privatsphäre.
Welche Akteure sammeln Daten im Internet und warum?
- Staatliche Institutionen: Zur Bekämpfung von Kriminalität und Terrorismus.
- Unternehmen: Für gezielte Vermarktung und datenbasierte Geschäftsmodelle.
- Nutzer selbst: Aus Neugier und für soziale Interaktion.
Ethische Probleme treten auf, wenn das Sammeln von Daten schützenswerte Interessen, Normen oder Werte beeinträchtigt, z. B. die Privatsphäre, Autonomie oder das Vertrauen der Nutzer.
„Datenexhibitionismus“ beschreibt das Phänomen, dass Nutzer oft dazu verleitet werden, mehr persönliche Daten preiszugeben, als sie eigentlich möchten, insbesondere durch die Gestaltung und Mechanismen von Social-Media-Plattformen.
Plattformen wie Facebook können Nutzungsbedingungen einseitig ändern, was Nutzer oft dazu zwingt, diesen Änderungen zuzustimmen, auch wenn sie nachteilig sind.
Welche technikethischen Ansätze gibt es zum Schutz der Privatsphäre?
Berufung auf Datenschutzgesetze. Entwicklung von Technologien, die Privatsphäre von vornherein schützen („privacy by design“).
Stärkung der Nutzerautonomie durch benutzerfreundliche Gestaltung von Benutzeroberflächen.
Informatiker und Ingenieure sind verantwortlich dafür, Technologien so zu gestalten, dass sie benutzerfreundlich sind und die Nutzerautonomie stärken, z. B. durch transparente und einfache Möglichkeiten zur Kontrolle der Datenfreigabe.
Die technische Gestaltung bestimmt, welche Daten Nutzer preisgeben und wie sie die Plattform nutzen können. Sie hat damit einen entscheidenden Einfluss auf Datenschutz und Nutzungsverhalten.
Was ist Privatsphäre und warum ist sie wichtig?
Privatsphäre ist ein facettenreiches Konzept, das die persönliche Autonomie und Identität schützt.
Sie ist essenziell für individuelle Freiheiten, die Entwicklung des Selbst und den Schutz vor ungewollten Eingriffen, besonders im digitalen Zeitalter, in dem die Grenzen zwischen Öffentlichkeit und Privatheit verschwimmen.
Wie definierte sich Privatsphäre ursprünglich, und wie hat sich das Verständnis geändert?
Privatsphäre war ursprünglich ein räumliches Konzept, bezogen auf physische Orte wie Häuser.
Heute umfasst sie auch abstrakte Räume, in denen Informationen gespeichert und verarbeitet werden, wie z. B. digitale Plattformen.
Welche vier zentralen Funktionen der Privatsphäre nennt Westin (1968)?
- Persönliche Autonomie: Freiheit von Manipulation und die Fähigkeit, eigene Entscheidungen zu treffen.
- Emotionaler Rückzug: Abbau von Stress durch privaten Raum.
- Selbstevaluation: Reflexion für ein tieferes Selbstverständnis.
- Begrenzte und geschützte Kommunikation: Kontrolle über den Zugang zu persönlichen Informationen.
Welche neuen Herausforderungen für die Privatsphäre entstehen durch digitale Technologien?
- Datenerfassung und -analyse erweitern die Grenzen des Privaten und bedrohen die Autonomie.
- Soziale Medien verändern das Verständnis und Management von Privatsphäre
- Informationsasymmetrien zwischen Nutzern und Datensammlern schränken die Handlungsfreiheit ein.
Was ist „Datafizierung der Privatsphäre“ und welche Folgen hat sie?
Die „Datafizierung der Privatsphäre“ beschreibt die Verarbeitung und Analyse von privaten Daten, oft unabhängig vom ursprünglichen Zweck.
Dies kann die Entscheidungsfreiheit einschränken, da IT-Unternehmen Vorhersagen über das Verhalten von Nutzern treffen und sie bewerten.
-
- 1 / 162
-