Kompetencje etyczne w świecie mediów SzD-DNKSM>Komet
Szczególny nacisk na praktyczne zastosowanie etyki w kontekście AI pozwoli doktorantkom lepiej zrozumieć dylematy współczesnych mediów oraz rosnącą rolę technologii w kształtowaniu opinii publicznej i demokratycznych procesów.
Moduł I: Wprowadzenie: AI i etyka w mediach
1: Wprowadzenie do AI – koncepcje, teorie, status quo AI i podstawowe zasady.
2: Etyka dziennikarska w erze cyfrowej – zmieniająca się rola mediów.
Moduł II: AI w mediach – wyzwania i perspektywy etyczne
3: Sztuczna inteligencja w mediach – wprowadzenie.
4: Automatyzacja dziennikarstwa – korzyści i zagrożenia.
5: Algorytmy personalizacji i ich etyczne implikacje – echo chambers i filter bubbles.
Moduł III: Sztuczna inteligencja a prawo do prywatności
6: AI i Big Data – wpływ przetwarzania danych na prywatność użytkowników mediów
7: Etyka w analizie danych – granice odpowiedzialności przy korzystaniu z Big Data.
Moduł IV: Deepfake i inne formy manipulacji medialnej
8: Fake news oraz deepfake – zagrożenia dla wiarygodności mediów i odpowiedzi etyczne.
9: Sztuczna inteligencja a dezinformacja – metody zwalczania manipulacji treści.
Moduł V: AI a odpowiedzialność społeczna mediów
10: Sztuczna inteligencja i prawa człowieka – analiza etyczna.
11: Neutralność algorytmiczna – problem obiektywności AI.
Moduł VI: Etyka sztucznej inteligencji w przyszłości mediów
12: Przyszłość mediów z AI – nowe modele komunikacji i etyki.
13: AI w dziennikarstwie śledczym i informacyjnym – szanse i zagrożenia.
Moduł VII: Case Studies i projekt końcowy
14: Studium przypadków: etyczne implikacje AI w mediach na świecie.
15: Podsumowanie i refleksje – AI i etyka medialna w dobie postprawdy.
Po ukończeniu przedmiotu „Kompetencje etyczne w świecie mediów” doktoranci będą w stanie:
1) Zrozumieć podstawowe zasady etyki medialnej oraz jej zastosowania w świecie cyfrowym i medialnym.
2) Analizować zagadnienia etyczne związane z użyciem sztucznej inteligencji w produkcji, dystrybucji i konsumpcji treści medialnych.
3) Rozpoznać zagrożenia etyczne wynikające z automatyzacji w mediach, takich jak deepfake, manipulacja algorytmami, prawo do prywatności, bias w algorytmach AI.
4) Tworzyć zasady odpowiedzialnego korzystania z technologii w procesach medialnych, z naciskiem na etykę w projektowaniu i korzystaniu z AI.
5) Krytycznie ocenić przypadki użycia AI w mediach oraz ich potencjalne konsekwencje dla demokracji, społeczeństwa, prywatności i praw człowieka.
Tryb zajęć
Koordynatorzy przedmiotu
Efekty kształcenia
1. Wiedza
1.1. EK1: Student ma zaawansowaną i zaktualizowaną wiedzę na temat współczesnych teorii etycznych i ich zastosowania w mediach cyfrowych oraz technologii.
1.2. EK2: Student rozumie złożoność etycznych dylematów związanych z wykorzystaniem sztucznej inteligencji w mediach, takich jak automatyzacja treści, algorytmy personalizacji, analiza danych, deepfake, czy manipulacja informacyjna.
1.3. EK3: Student posiada wiedzę na temat międzynarodowych regulacji prawnych oraz standardów etycznych dotyczących AI i mediów, takich jak RODO (GDPR), zasady ochrony danych, czy regulacje dotyczące dezinformacji.
2. Umiejętności
2.1. EK4: Student potrafi krytycznie analizować i oceniać różne zastosowania AI w mediach, identyfikując potencjalne zagrożenia etyczne, takie jak stronniczość algorytmów (bias), naruszenie prywatności, czy manipulacja informacyjna.
2.2. EK5: Student umie wykorzystywać zaawansowane narzędzia i techniki analizy medialnej do identyfikacji etycznych wyzwań związanych z AI, oraz proponować rozwiązania mające na celu minimalizację negatywnych skutków etycznych.
2.3. EK6: Student potrafi zastosować wybrane teorie etyczne do praktycznych przypadków z zakresu mediów cyfrowych i AI, opracowując konkretne rekomendacje i zasady odpowiedzialnego korzystania z tych technologii.
2.4. EK7: Student posiada umiejętności komunikacyjne i potrafi przedstawiać złożone dylematy etyczne w sposób jasny i zrozumiały, zarówno dla ekspertów, jak i dla szerokiej publiczności.
3. Kompetencje społeczne
3.1. EK8: Student rozumie odpowiedzialność społeczną wynikającą z pracy w mediach cyfrowych, szczególnie w kontekście tworzenia i rozpowszechniania treści generowanych lub moderowanych przez AI.
3.2. EK9: Student jest świadomy wpływu, jaki technologie AI mają na demokrację, prawa człowieka i społeczeństwo, i potrafi podjąć świadome działania, aby minimalizować te negatywne skutki.
3.3. EK10: Student rozwija postawę refleksyjną i krytyczną wobec technologii, zadając pytania o ich etyczne implikacje i dążąc do wprowadzenia zasad odpowiedzialnego korzystania z AI w mediach.
3.4. EK11: Student jest zdolny do pracy w interdyscyplinarnych zespołach, współpracując z ekspertami z różnych dziedzin (technologii, prawa, etyki) w celu opracowania kompleksowych rozwiązań problemów etycznych związanych z mediami i AI.
Ww. efekty kształcenia przygotowują studentów do odpowiedzialnego i krytycznego działania w świecie mediów, który coraz częściej korzysta z technologii sztucznej inteligencji.
Kryteria oceniania
Metody oceniania
1) Kolokwium pisemne i prezentacje grupowe weryfikują wiedzę (EK1-EK3).
2) Projekty praktyczne oraz analizy case study weryfikują umiejętności analizy i rozwiązywania problemów etycznych (EK4-EK7).
3) Dyskusje grupowe i warsztaty pomagają ocenić kompetencje społeczne oraz zaangażowanie w odpowiedzialne podejście do problematyki (EK8-EK11).
Kryteria brane pod uwagę w ocenianiu
1) Aktywność na zajęciach: 20%
2) Bieżące prace pisemne: 30%
3) Opracowania na zajęcia: 30%
4) Projekt końcowy: 20%
Praktyki zawodowe
Nie dotyczy
Literatura
Oprócz niżej wymienionych - teksty analizy przypadków w ramach warsztatów.
Lektury podstawowe:
1. Drożdż M. (2019), Etyka mediów w obronie wartości, Wydawnictwo Naukowe UPJPII.
2. Walsh T. (2018), To żyje! Sztuczna inteligencja od logicznego fortepianu po zabójcze roboty, PWN.
3. Surma J. (2017), Cyfryzacja życia w erze Big Data, PWN.
Literatura uzupełniająca:
1. Floridi, L. (2019). The Ethics of Artificial Intelligence and Robotics. Oxford University Press.
2. Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press.
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: