Opis: W temacie omówione zostaną kompetencje cyfrowe XXI wieku. Przedstawione zostaną podstawy cyberbezpieczeństwa, zasady działania i wykorzystania sztucznej inteligencji oraz metody rozpoznawania i analizy dezinformacji w praktyce.
Cyberbezpieczeństwo to zbiór praktyk i technologii mających na celu ochronę danych, urządzeń oraz tożsamości użytkownika w środowisku cyfrowym. W dobie powszechnego dostępu do internetu zagrożenia są coraz bardziej zaawansowane, a ich skutki mogą obejmować utratę danych, pieniędzy lub prywatności. Kluczowym elementem bezpieczeństwa jest nie tylko technologia, ale również świadome zachowanie użytkownika.
Phishing to technika oszustwa polegająca na podszywaniu się pod zaufane instytucje (np. bank, serwis społecznościowy) w celu wyłudzenia danych logowania lub informacji finansowych.
Mechanizm działania:
użytkownik otrzymuje wiadomość (e-mail/SMS),
wiadomość zawiera link do fałszywej strony,
strona imituje oryginalny serwis,
użytkownik wpisuje dane -> trafiają do atakującego.
Przykład:
Mail "Twoje konto zostało zablokowane - kliknij tutaj, aby je odblokować".
Ransomware
Blokuje dostęp do danych i żąda okupu za ich odzyskanie.
Spyware
Zbiera informacje o użytkowniku (np. hasła, aktywność) bez jego wiedzy.
Cryptojacking
Wykorzystuje zasoby komputera użytkownika do kopania kryptowalut bez jego zgody.
Polega na przejęciu danych osobowych (np. PESEL, login, hasło) i wykorzystaniu ich do podszywania się pod użytkownika - np. zaciągania kredytów lub przejmowania kont.
minimum 12 znaków,
zawiera małe i duże litery, cyfry oraz znaki specjalne,
nie zawiera słów słownikowych ani danych osobowych.
Używanie tego samego hasła w wielu serwisach powoduje, że wyciek w jednym miejscu naraża wszystkie pozostałe konta.
To programy przechowujące hasła w zaszyfrowanej bazie. Użytkownik zapamiętuje tylko jedno hasło główne, a aplikacja automatycznie uzupełnia dane logowania.
Polega na użyciu dwóch niezależnych metod logowania:
coś, co znasz (hasło),
coś, co masz (telefon, aplikacja),
coś, czym jesteś (biometria).
Przykład: logowanie + kod SMS.
3 kopie danych,
na 2 różnych nośnikach,
1 kopia poza główną lokalizacją (np. chmura).
lokalne - pełna kontrola, ale ryzyko utraty (awaria dysku),
chmura - dostęp z dowolnego miejsca, ale zależność od dostawcy.
Proces przekształcania danych w formę nieczytelną bez klucza.
Zastosowanie:
komunikacja (np. komunikatory),
dyski twarde,
przesyłanie danych przez internet.
literówki w adresie strony,
presja czasu ("działaj natychmiast"),
podejrzane załączniki,
nieznany nadawca.
Oznacza, że połączenie jest szyfrowane.
Nie gwarantuje:
że strona jest bezpieczna,
że właściciel strony jest uczciwy.
brak szyfrowania lub słabe zabezpieczenia,
możliwość podsłuchu transmisji,
ryzyko ataków typu "man-in-the-middle".
Zasady:
nie loguj się do banku,
używaj VPN,
wyłącz automatyczne łączenie.
Manipulowanie użytkownikiem w celu uzyskania dostępu do informacji.
Przykład: telefon od "pracownika banku" proszącego o podanie kodu.
Nawet najlepsze zabezpieczenia techniczne nie pomogą, jeśli użytkownik:
udostępnia hasła,
klika w podejrzane linki,
ignoruje ostrzeżenia.
regularna zmiana haseł,
aktualizacja oprogramowania,
ostrożność przy otwieraniu załączników,
korzystanie z legalnego oprogramowania,
blokowanie urządzenia (PIN/biometria).
Cyberbezpieczeństwo to nie jednorazowe działanie, lecz proces wymagający ciągłej uwagi. Kluczowe znaczenie ma połączenie technologii (np. szyfrowanie, 2FA) oraz świadomych decyzji użytkownika. Nawet podstawowe zasady bezpieczeństwa znacząco zmniejszają ryzyko ataku.
Sztuczna inteligencja (AI) to dziedzina informatyki zajmująca się tworzeniem systemów zdolnych do wykonywania zadań wymagających inteligencji człowieka, takich jak rozpoznawanie obrazów, analiza tekstu czy podejmowanie decyzji. Współczesne systemy AI opierają się głównie na analizie dużych zbiorów danych oraz uczeniu maszynowym, co pozwala im dostosowywać się do nowych sytuacji i generować odpowiedzi.
To systemy komputerowe, które potrafią:
analizować dane,
uczyć się na ich podstawie,
podejmować decyzje lub generować treści.
To metoda, w której komputer otrzymuje dane, wykrywa w nich wzorce, wykorzystuje te wzorce do przewidywania lub klasyfikacji.
Bez matematyki: zamiast programować "reguły", uczymy system na przykładach.
Jakość AI zależy bezpośrednio od danych im więcej danych tym lepsze wyniki, błędne dane - błędne wnioski, stronnicze dane - stronnicze decyzje.
To systemy uczone na ogromnych zbiorach tekstów, które:
przewidują kolejne słowa w zdaniu,
generują odpowiedzi przypominające ludzkie wypowiedzi,
pomagają w pisaniu, analizie i programowaniu.
Edukacja
wyjaśnianie trudnych zagadnień,
generowanie testów i materiałów,
indywidualizacja nauki.
Praca biurowa
tworzenie dokumentów,
analiza danych,
automatyzacja powtarzalnych zadań.
Programowanie
generowanie kodu,
wykrywanie błędów,
pomoc w nauce języków programowania.
Halucynacje
AI może generować nieprawdziwe, ale wiarygodnie brzmiące informacje.
Brak pełnego rozumienia kontekstu
Model analizuje wzorce językowe, ale nie "rozumie" świata jak człowiek.
Zależność od danych
Jeśli dane są nieaktualne lub błędne -> odpowiedzi również będą błędne.
Precyzja
zamiast: "wyjaśnij AI"
lepiej: "wyjaśnij AI na poziomie ucznia technikum w 5 zdaniach"
Kontekst
określenie celu i odbiorcy,
dodanie szczegółów.
Struktura polecenia
jasno określone wymagania,
np. lista punktów, długość odpowiedzi, styl.
sprawdzanie informacji w innych źródłach,
krytyczne podejście do wyników,
unikanie bezrefleksyjnego kopiowania.
AI powinno:
pomagać w pracy i nauce,
przyspieszać zadania,
wspierać myślenie.
Nie powinno:
zastępować samodzielnego myślenia,
być jedynym źródłem wiedzy.
AI przejmuje głównie:
zadania powtarzalne,
analizę dużych zbiorów danych,
proste procesy decyzyjne.
Bardziej zagrożone:
prace rutynowe (np. wprowadzanie danych),
proste analizy.
Bardziej odporne:
wymagające kreatywności,
wymagające kontaktu z ludźmi,
wymagające podejmowania złożonych decyzji.
specjalista AI,
analityk danych,
inżynier promptów,
specjalista ds. etyki AI.
Krytyczne myślenie
Umiejętność oceny informacji i wykrywania błędów.
Kreatywność
Tworzenie nowych pomysłów i rozwiązań, których AI nie generuje samodzielnie.
Adaptacyjność
Szybkie dostosowywanie się do nowych technologii i zmian.
Lifelong learning (uczenie się przez całe życie)
Stałe rozwijanie kompetencji w dynamicznie zmieniającym się świecie.
kto odpowiada za błędne informacje?
użytkownik powinien świadomie korzystać z AI.
nie należy udostępniać wrażliwych informacji,
dane mogą być wykorzystywane do trenowania modeli.
powstają przepisy dotyczące AI,
mają na celu:
ochronę użytkowników,
zwiększenie przejrzystości,
ograniczenie nadużyć.
Sztuczna inteligencja to potężne narzędzie, które znacząco wpływa na edukację, pracę i codzienne życie. Kluczowe jest świadome i odpowiedzialne korzystanie z AI - zrozumienie jej możliwości, ale również ograniczeń. Kompetencje związane z AI stają się jednymi z najważniejszych umiejętności XXI wieku.
Dezinformacja to jedno z kluczowych wyzwań współczesnego świata cyfrowego. W dobie mediów społecznościowych każdy użytkownik jest jednocześnie odbiorcą i nadawcą informacji, co sprzyja szybkiemu rozprzestrzenianiu się nieprawdziwych treści. Umiejętność ich rozpoznawania i analizy stanowi podstawową kompetencję cyfrową.
Dezinformacja to celowe rozpowszechnianie fałszywych lub wprowadzających w błąd informacji w celu:
manipulowania opinią publiczną,
osiągnięcia korzyści politycznych lub finansowych,
wywołania chaosu informacyjnego.
Dezinformacja (celowa)
świadome działanie,
zaplanowana manipulacja.
Misinformacja (niezamierzona)
rozpowszechnianie fałszywych informacji bez świadomości ich nieprawdziwości,
często wynika z braku weryfikacji.
Treści odwołujące się do:
strachu ("zagrożenie", "niebezpieczeństwo"),
gniewu ("skandal", "oszustwo"),
sensacji ("nie uwierzysz, co się stało").
Silne emocje obniżają krytyczne myślenie i zwiększają skłonność do udostępniania.
przesadzone lub mylące tytuły,
często nie oddają treści artykułu,
mają na celu zwiększenie liczby kliknięć.
cytaty lub fakty przedstawione bez pełnego tła,
zmiana znaczenia poprzez pominięcie kluczowych informacji.
wybieranie tylko tych danych, które potwierdzają określoną tezę,
ignorowanie informacji sprzecznych.
Sytuacja, w której użytkownik widzi głównie treści zgodne z jego poglądami.
wzmacnianie własnych przekonań poprzez kontakt tylko z podobnymi opiniami,
brak konfrontacji z innymi punktami widzenia.
Algorytmy:
analizują zachowanie użytkownika,
promują treści, które zwiększają zaangażowanie,
często wzmacniają emocjonalne i kontrowersyjne materiały.
szybkie rozprzestrzenianie się informacji,
nie zawsze związane z jej prawdziwością,
treści emocjonalne rozchodzą się szybciej niż rzetelne.
kto jest autorem?
czy to znana i wiarygodna instytucja?
czy autor podaje swoje dane i kompetencje?
sprawdzanie tej samej wiadomości w różnych źródłach,
zwracanie uwagi na zgodność przekazu.
stare informacje mogą być przedstawiane jako aktualne,
wydarzenia mogą być interpretowane bez kontekstu.
sprawdzanie, czy materiał nie pochodzi z innego wydarzenia,
użycie narzędzi do wyszukiwania obrazem (reverse image search).
fałszywe cytaty przypisywane znanym osobom,
przerobione zdjęcia,
nagłówki niezgodne z treścią,
wymyślone statystyki.
nie udostępniać bez sprawdzenia,
zgłaszać treści na platformach,
edukować innych (np. wskazać źródła).
sprawdź zanim udostępnisz,
oceniaj wiarygodność,
nie kieruj się tylko emocjami.
manipulowanie opinią publiczną,
wpływ na wybory i decyzje polityczne,
polaryzacja społeczeństwa.
błędne decyzje zdrowotne, finansowe,
utrata orientacji w rzeczywistości informacyjnej.
spadek zaufania do mediów, nauki, państwa,
wzrost teorii spiskowych.
Dezinformacja to złożone zjawisko, które wykorzystuje emocje, mechanizmy psychologiczne oraz technologie cyfrowe. Kluczową umiejętnością jest krytyczna analiza informacji oraz świadome korzystanie z mediów. W świecie nadmiaru informacji to użytkownik ponosi odpowiedzialność za to, co czyta i udostępnia.
© 2026 Piskorowski Jakub. All rights reserved.