KE_3_Ethik
digitale Ethik Fernuni Hagen
digitale Ethik Fernuni Hagen
Fichier Détails
Cartes-fiches | 166 |
---|---|
Langue | Deutsch |
Catégorie | Religion / Ethique |
Niveau | Université |
Crée / Actualisé | 01.12.2024 / 11.06.2025 |
Lien de web |
https://card2brain.ch/box/20241201_ke3ethik
|
Intégrer |
<iframe src="https://card2brain.ch/box/20241201_ke3ethik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Créer ou copier des fichiers d'apprentissage
Avec un upgrade tu peux créer ou copier des fichiers d'apprentissage sans limite et utiliser de nombreuses fonctions supplémentaires.
Connecte-toi pour voir toutes les cartes.
Mitarbeitende müssen befähigt werden, mit neuen Technologien umzugehen, um die Effizienz der digitalen Transformation voll auszuschöpfen und Arbeitsplätze menschenfreundlich zu gestalten.
Lernende Algorithmen ermöglichen proaktive Wartungen, wodurch die Lebensdauer von Maschinen verlängert wird.
Neben Innovationen und Effizienzsteigerungen entstehen Risiken wie Datenmissbrauch, mangelnde Transparenz und die Gefahr von Monopolbildung.
Regulierung wie der Digital Services Act soll Transparenz fördern, Nutzerrechte schützen und die Verantwortlichkeit von Plattformen erhöhen.
Sie ermöglicht Effizienzsteigerungen, Flexibilität in der Produktion und die Anpassung an Marktanforderungen, was die globale Wettbewerbsfähigkeit erhöht.
Worauf zielen die Regulierungen der EU Behörden im Bereich digitale Transforation ab und wie heißen sie?
Der DMA richtet sich explizit gegen große Plattformbetreiber wie Google, Meta, Amazon und Microsoft. Ziel ist es, unfairen Wettbewerb zu verhindern und die Rechte der Nutzer zu stärken. Unternehmen, die als „Gatekeeper“ betrachtet werden, unterliegen ab 2023 einer Reihe von Pflichten und Verboten. Dazu gehören die Möglichkeit für Nutzer, vorinstallierte Apps zu deinstallieren, der Zugang zu Leistungsmessinstrumenten des Gatekeepers für gewerbliche Kunden sowie die Verhinderung von Praktiken, die die Offenheit digitaler Märkte gefährden.
Der DSA zielt darauf ab, gesellschaftliche Probleme im Internet wie Hassrede und Desinformation zu bekämpfen und die Rechte der Nutzer zu schützen. Betreiber von Onlineplattformen und Diensten werden verpflichtet, illegale Inhalte stärker zu bekämpfen und Mechanismen zur Meldung solcher Inhalte bereitzustellen. Darüber hinaus werden Maßnahmen zur Transparenz von algorithmischen Systemen und zur Kennzeichnung von Werbung ein- geführt.
Der DGA fördert die gemeinsame Nutzung von Daten innerhalb des europäischen Wirtschaftsraums. Unternehmen können digitale Plattformen für den Austausch von Daten aufbauen und als unabhängige Datentreuhänder fungieren. Dabei werden Sicherheits- und Schutzmechanismen implementiert, um den Missbrauch von Daten zu verhindern. Das Gesetz erleichtert auch die Weiterverwendung bestimmter Kategorien geschützter Daten des öffentlichen Sektors.
Der Data Act legt Bedingungen für die Wertschöpfung aus nicht-personenbezogenen Daten fest. Kleine und mittlere Unternehmen sowie Endnutzer sollen stärker als zuvor von einem erleichterten Zugang zu industriellen Daten profitieren. Maßnahmen zur Verbesserung der Datenportabilität und der Interoperabilität werden eingeführt, um eine EU-weite Datenwirtschaft zu ermöglichen.
Der EHDS schafft einen Rahmen für den Austausch von primären und sekundären Gesundheitsdaten innerhalb der EU. Primäre Gesundheitsdaten wie elektronische Verschreibungen und Laborergebnisse können von Bürgern eingesehen und kontrolliert werden. Sekundärnutzung von Gesundheitsdaten zu Forschungszwecken wird ermöglicht, jedoch unter strikten Datenschutzvorkehrungen.
Der AI-Act reguliert algorithmische Systeme auf Basis von KI-Techniken und Konzepten. Anbieter von KI-Systemen mit hohem Risiko müssen verschiedene Grundsätze einhalten, um ihre Produkte in der EU anbieten zu können. Maßnahmen zur Transparenz, Nachvollziehbarkeit und menschlichen Aufsicht werden eingeführt, um sicherzustellen, dass KI-Anwendungen die Grundrechte der Menschen respektieren.
Was versteht man unter den Begriffen Privacy, Security und Safety?
Privacy: Schutz personenbezogener Daten vor unbefugter Kenntnisnahme, Veränderung oder Nutzung.
Security: Sicherheit vor beabsichtigten Angriffen.
Safety: Sicherheit vor unbeabsichtigten Ereignissen.
„Sicherheit“ wird als Zustand der Gewissheit, Zuverlässigkeit und Unbedrohtseins verstanden. Ursprünglich auf die Verfassung von Individuen bezogen, wurde der Begriff später zu einer politischen, wirtschaftlichen und gesellschaftlichen Idee weiterentwickelt.
Der Aufsatz definierte Privatsphäre als das Recht, in Ruhe gelassen zu werden. Er wurde durch die Verbreitung der Fotografie inspiriert und legte den Grundstein für moderne Diskussionen über Datenschutz und Privatsphäre.
Staatliche Institutionen: Zur Bekämpfung von Kriminalität und Terrorismus. Unternehmen: Für gezielte Vermarktung und datenbasierte Geschäftsmodelle. Nutzer selbst: Aus Neugier und für soziale Interaktion.
Ethische Probleme treten auf, wenn das Sammeln von Daten schützenswerte Interessen, Normen oder Werte beeinträchtigt, z. B. die Privatsphäre, Autonomie oder das Vertrauen der Nutzer.
„Datenexhibitionismus“ beschreibt das Phänomen, dass Nutzer oft dazu verleitet werden, mehr persönliche Daten preiszugeben, als sie eigentlich möchten, insbesondere durch die Gestaltung und Mechanismen von Social-Media-Plattformen.
Plattformen wie Facebook können Nutzungsbedingungen einseitig ändern, was Nutzer oft dazu zwingt, diesen Änderungen zuzustimmen, auch wenn sie nachteilig sind.
Berufung auf Datenschutzgesetze. Entwicklung von Technologien, die Privatsphäre von vornherein schützen („privacy by design“). Stärkung der Nutzerautonomie durch benutzerfreundliche Gestaltung von Benutzeroberflächen.
Informatiker und Ingenieure sind verantwortlich dafür, Technologien so zu gestalten, dass sie benutzerfreundlich sind und die Nutzerautonomie stärken, z. B. durch transparente und einfache Möglichkeiten zur Kontrolle der Datenfreigabe.
Die technische Gestaltung bestimmt, welche Daten Nutzer preisgeben und wie sie die Plattform nutzen können. Sie hat damit einen entscheidenden Einfluss auf Datenschutz und Nutzungsverhalten.
Privatsphäre ist ein facettenreiches Konzept, das die persönliche Autonomie und Identität schützt. Sie ist essenziell für individuelle Freiheiten, die Entwicklung des Selbst und den Schutz vor ungewollten Eingriffen, besonders im digitalen Zeitalter, in dem die Grenzen zwischen Öffentlichkeit und Privatheit verschwimmen.
Privatsphäre war ursprünglich ein räumliches Konzept, bezogen auf physische Orte wie Häuser. Heute umfasst sie auch abstrakte Räume, in denen Informationen gespeichert und verarbeitet werden, wie z. B. digitale Plattformen.
Welche vier zentralen Funktionen der Privatsphäre nennt Westin (1968)?
1. Persönliche Autonomie: Freiheit von Manipulation und die Fähigkeit, eigene Entscheidungen zu treffen.
2. Emotionaler Rückzug: Abbau von Stress durch privaten Raum.
3. Selbstevaluation: Reflexion für ein tieferes Selbstverständnis.
4. Begrenzte und geschützte Kommunikation: Kontrolle über den Zugang zu persönlichen Informationen.
Datenerfassung und -analyse erweitern die Grenzen des Privaten und bedrohen die Autonomie. Soziale Medien verändern das Verständnis und Management von Privatsphäre. Informationsasymmetrien zwischen Nutzern und Datensammlern schränken die Handlungsfreiheit ein.
Die „Datafizierung der Privatsphäre“ beschreibt die Verarbeitung und Analyse von privaten Daten, oft unabhängig vom ursprünglichen Zweck. Dies kann die Entscheidungsfreiheit einschränken, da IT-Unternehmen Vorhersagen über das Verhalten von Nutzern treffen und sie bewerten.
-
- 1 / 166
-