Kompetencje etyczne w świecie mediów SzD-DNKSM>Komet
Szczególny nacisk na praktyczne zastosowanie etyki w kontekście AI pozwoli doktorantkom lepiej zrozumieć dylematy współczesnych mediów oraz rosnącą rolę technologii w kształtowaniu opinii publicznej i demokratycznych procesów.
Moduł I: Wprowadzenie: AI i etyka w mediach
1: Wprowadzenie do AI – koncepcje, teorie, status quo AI i podstawowe zasady.
2: Etyka dziennikarska w erze cyfrowej – zmieniająca się rola mediów.
Moduł II: AI w mediach – wyzwania i perspektywy etyczne
3: Sztuczna inteligencja w mediach – wprowadzenie.
4: Automatyzacja dziennikarstwa – korzyści i zagrożenia.
5: Algorytmy personalizacji i ich etyczne implikacje – echo chambers i filter bubbles.
Moduł III: Sztuczna inteligencja a prawo do prywatności
6: AI i Big Data – wpływ przetwarzania danych na prywatność użytkowników mediów
7: Etyka w analizie danych – granice odpowiedzialności przy korzystaniu z Big Data.
Moduł IV: Deepfake i inne formy manipulacji medialnej
8: Fake news oraz deepfake – zagrożenia dla wiarygodności mediów i odpowiedzi etyczne.
9: Sztuczna inteligencja a dezinformacja – metody zwalczania manipulacji treści.
Moduł V: AI a odpowiedzialność społeczna mediów
10: Sztuczna inteligencja i prawa człowieka – analiza etyczna.
11: Neutralność algorytmiczna – problem obiektywności AI.
Moduł VI: Etyka sztucznej inteligencji w przyszłości mediów
12: Przyszłość mediów z AI – nowe modele komunikacji i etyki.
13: AI w dziennikarstwie śledczym i informacyjnym – szanse i zagrożenia.
Moduł VII: Case Studies i projekt końcowy
14: Studium przypadków: etyczne implikacje AI w mediach na świecie.
15: Podsumowanie i refleksje – AI i etyka medialna w dobie postprawdy.
Po ukończeniu przedmiotu „Kompetencje etyczne w świecie mediów” doktoranci będą w stanie:
1) Zrozumieć podstawowe zasady etyki medialnej oraz jej zastosowania w świecie cyfrowym i medialnym.
2) Analizować zagadnienia etyczne związane z użyciem sztucznej inteligencji w produkcji, dystrybucji i konsumpcji treści medialnych.
3) Rozpoznać zagrożenia etyczne wynikające z automatyzacji w mediach, takich jak deepfake, manipulacja algorytmami, prawo do prywatności, bias w algorytmach AI.
4) Tworzyć zasady odpowiedzialnego korzystania z technologii w procesach medialnych, z naciskiem na etykę w projektowaniu i korzystaniu z AI.
5) Krytycznie ocenić przypadki użycia AI w mediach oraz ich potencjalne konsekwencje dla demokracji, społeczeństwa, prywatności i praw człowieka.
Tryb zajęć
Koordynatorzy przedmiotu
Efekty kształcenia
1. Wiedza
1.1. EK1: Student ma zaawansowaną i zaktualizowaną wiedzę na temat współczesnych teorii etycznych i ich zastosowania w mediach cyfrowych oraz technologii.
1.2. EK2: Student rozumie złożoność etycznych dylematów związanych z wykorzystaniem sztucznej inteligencji w mediach, takich jak automatyzacja treści, algorytmy personalizacji, analiza danych, deepfake, czy manipulacja informacyjna.
1.3. EK3: Student posiada wiedzę na temat międzynarodowych regulacji prawnych oraz standardów etycznych dotyczących AI i mediów, takich jak RODO (GDPR), zasady ochrony danych, czy regulacje dotyczące dezinformacji.
2. Umiejętności
2.1. EK4: Student potrafi krytycznie analizować i oceniać różne zastosowania AI w mediach, identyfikując potencjalne zagrożenia etyczne, takie jak stronniczość algorytmów (bias), naruszenie prywatności, czy manipulacja informacyjna.
2.2. EK5: Student umie wykorzystywać zaawansowane narzędzia i techniki analizy medialnej do identyfikacji etycznych wyzwań związanych z AI, oraz proponować rozwiązania mające na celu minimalizację negatywnych skutków etycznych.
2.3. EK6: Student potrafi zastosować wybrane teorie etyczne do praktycznych przypadków z zakresu mediów cyfrowych i AI, opracowując konkretne rekomendacje i zasady odpowiedzialnego korzystania z tych technologii.
2.4. EK7: Student posiada umiejętności komunikacyjne i potrafi przedstawiać złożone dylematy etyczne w sposób jasny i zrozumiały, zarówno dla ekspertów, jak i dla szerokiej publiczności.
3. Kompetencje społeczne
3.1. EK8: Student rozumie odpowiedzialność społeczną wynikającą z pracy w mediach cyfrowych, szczególnie w kontekście tworzenia i rozpowszechniania treści generowanych lub moderowanych przez AI.
3.2. EK9: Student jest świadomy wpływu, jaki technologie AI mają na demokrację, prawa człowieka i społeczeństwo, i potrafi podjąć świadome działania, aby minimalizować te negatywne skutki.
3.3. EK10: Student rozwija postawę refleksyjną i krytyczną wobec technologii, zadając pytania o ich etyczne implikacje i dążąc do wprowadzenia zasad odpowiedzialnego korzystania z AI w mediach.
3.4. EK11: Student jest zdolny do pracy w interdyscyplinarnych zespołach, współpracując z ekspertami z różnych dziedzin (technologii, prawa, etyki) w celu opracowania kompleksowych rozwiązań problemów etycznych związanych z mediami i AI.
Ww. efekty kształcenia przygotowują studentów do odpowiedzialnego i krytycznego działania w świecie mediów, który coraz częściej korzysta z technologii sztucznej inteligencji.
Kryteria oceniania
Metody oceniania
1) Kolokwium pisemne i prezentacje grupowe weryfikują wiedzę (EK1-EK3).
2) Projekty praktyczne oraz analizy case study weryfikują umiejętności analizy i rozwiązywania problemów etycznych (EK4-EK7).
3) Dyskusje grupowe i warsztaty pomagają ocenić kompetencje społeczne oraz zaangażowanie w odpowiedzialne podejście do problematyki (EK8-EK11).
Kryteria brane pod uwagę w ocenianiu
1) Aktywność na zajęciach: 30%
2) Aktywny udział w warsztatach: 30%
3) Prezentacja case study: 20%
4) Projekt końcowy: 20%
Praktyki zawodowe
Nie dotyczy
Literatura
Oprócz niżej wymienionych - teksty analizy przypadków w ramach warsztatów.
Literatura podstawowa:
1. Drożdż M. (2019), Etyka mediów w obronie wartości, Wydawnictwo Naukowe UPJPII.
2. Floridi, L. (2019). The Ethics of Artificial Intelligence and Robotics. Oxford University Press.
3. Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson.
4. Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press.
Literatura uzupełniająca:
1. O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
2. Zittrain, J. (2008). The Future of the Internet–And How to Stop It. Yale University Press.
3. Lanier, J. (2018). Ten Arguments for Deleting Your Social Media Accounts Right Now. Henry Holt and Co.
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: