Przydatne informacje i porady.
Twoja firma zgodna z prawem.
Blog prawny dla firm
Chcesz być na bieżąco z naszymi artykułami? Zaobserwuj nas na Social Mediach
Polecane artykuły
Prawnik dla firm
Zajmuję się kompleksowym doradztwem prawnym w zakresie ochrony danych osobowych.
Stawiam na holistyczne podejście, profesjonalizm i dbałość o bezpieczeństwo informacji w Twojej firmie.
Czy korzystasz w pracy z asystenta Microsoft 365 Copilot? A może planujesz wdrożenie sztucznej inteligencji w codziennej komunikacji biznesowej? Jeśli tak, ten artykuł jest właśnie dla Ciebie.
Poniżej wyjaśniam, czym jest luka bezpieczeństwa EchoLeak - pierwsza w historii podatność umożliwiająca tzw. atak zero-click w środowisku AI (ang. Artificial Intelligence), z jakimi zagrożeniami się wiąże oraz jakie obowiązki i rekomendacje wynikają z tego incydentu dla osób przetwarzających dane osobowe. Szczególną uwagę poświęcam też aspektowi zgodności z ogólnym rozporządzeniem o ochronie danych osobowych (RODO).
Spis treści
Aspekt prawny: zgodność z ogólnym rozporządzeniem o ochronie danych osobowych (RODO)
Rekomendacje Inspektora Ochrony Danych (IOD) dla pracowników
EchoLeak to nowo odkryta podatność, oznaczona jako CVE 2025 32711, wykryta przez specjalistów z Aim Security. To pierwsza luka, która umożliwiła atak zero-click (czyli bez interakcji użytkownika) w środowisku sztucznej inteligencji wbudowanej w Microsoft 365 Copilot.
Copilot jest zintegrowanym asystentem AI, działającym w programach takich jak Microsoft Outlook, Microsoft Word, Microsoft Teams czy Microsoft OneDrive. W wyniku ataku dane organizacji mogą zostać wykradzione, nawet jeśli użytkownik nie otworzył wiadomości e-mail ani nie kliknął w żaden link.
Zgodnie z analizą Narodowej Bazy Danych o Podatnościach (ang. National Vulnerability Database), luka EchoLeak została oceniona na 7,5 w skali CVSS, co oznacza wysoki poziom zagrożenia.
Natomiast według wewnętrznej oceny firmy Microsoft, ryzyko zostało sklasyfikowane wyżej, na poziomie 9,3, czyli jako krytyczne.
Podatność ta została zakwalifikowana jako przykład tzw. naruszenia zakresu kontekstu (ang. LLM Scope Violation) w systemach opartych na dużych modelach językowych (ang. Large Language Models).
1. Wstrzyknięcie polecenia (prompt injection)
Atakujący wysyła e-mail zawierający niewidoczne polecenie, zapisane np. w metadanych obrazu lub formacie Markdown. Treść wiadomości może wyglądać jak typowa korespondencja służbowa.
2. Przejęcie kontekstu przez Copilota
Jeśli użytkownik uruchomi funkcję AI (np. poprosi Copilota o podsumowanie wiadomości), system automatycznie analizuje kontekst: treść maila, załączniki, historię rozmów w Microsoft Teams, pliki z Microsoft OneDrive czy Microsoft SharePoint. Złośliwy prompt staje się częścią tej analizy.
3. Wyciek danych
Asystent AI może nieświadomie wygenerować odpowiedź, która ujawnia dane wrażliwe, a nawet przesłać je poza organizację, np. na zewnętrzny serwer kontrolowany przez atakującego.
Poniżej wymieniam najważniejsze zagrożenia wynikające z EchoLeak:
- atak nie wymaga kliknięcia ani interakcji użytkownika;
- umożliwia dostęp do poufnych danych, w tym całej zawartości skrzynki e-mail, dokumentów i historii rozmów;
- jest trudny do wykrycia, ponieważ wiadomości wyglądają jak zwykła korespondencja;
- omija tradycyjne zabezpieczenia, takie jak filtry antyphishingowe;
- reprezentuje nową klasę ataków specyficznych dla sztucznej inteligencji.
Microsoft opublikował stosowną aktualizację w czerwcu 2025 roku. Poprawka została wprowadzona po stronie serwera, dzięki czemu użytkownicy nie musieli podejmować żadnych działań. Firma nie odnotowała dotąd masowych nadużyć, ale podkreśla, że dalsze wzmacnianie zabezpieczeń AI jest konieczne.
Dodatkowo Microsoft wdrożył:
- opcje blokowania e-maili zawierających podejrzane polecenia,
- możliwość ograniczenia dostępu Copilota do danych poufnych,
- narzędzia Data Loss Prevention (DLP), które pozwalają nadzorować i ograniczać przekazywanie danych.
Zgodnie z art. 5 ust. 1 lit. f RODO, administrator danych musi zapewnić ich integralność i poufność. W przypadku incydentu, takiego jak EchoLeak, organizacja ma obowiązek:
- zgłoszenia naruszenia do Prezesa Urzędu Ochrony Danych Osobowych (UODO),
- powiadomienia osób, których dane dotyczą (zgodnie z art. 33 i 34 RODO).
Incydent ten pokazuje, że każda organizacja powinna zrewidować swoje polityki bezpieczeństwa w kontekście narzędzi opartych na AI.
W obliczu zagrożeń, takich jak EchoLeak, ochrona danych osobowych i bezpieczeństwo informacji stają się nie tylko obowiązkiem prawnym, ale również kluczowym elementem codziennej praktyki zawodowej. Nawet najlepsze systemy informatyczne mogą stać się celem ataku, jeśli nie będą odpowiednio wykorzystywane.
Dlatego jako IOD rekomenduję wdrożenie poniższych dobrych praktyk. Ich stosowanie znacząco zmniejsza ryzyko naruszenia bezpieczeństwa danych i wzmacnia odporność organizacji na nowe typy zagrożeń związanych ze sztuczną inteligencją:
1. Minimalizuj przetwarzane dane
Udostępniaj tylko dane niezbędne do realizacji celu. W przypadku danych wrażliwych korzystaj z szyfrowanych narzędzi.
2. Z rozwagą korzystaj z funkcji AI
Nie używaj Copilota do analizy wiadomości e-mail zawierających dane osobowe. Rozważ jego czasowe wyłączenie przy pracy z informacjami poufnymi.
3. Weryfikuj wiadomości
Nie otwieraj wiadomości od nieznanych nadawców. Usuń każdą wiadomość budzącą podejrzenia.
4. Porządkuj skrzynkę pocztową
Regularnie usuwaj niepotrzebne e-maile zawierające dane osobowe. Zmniejsz ilość danych przechowywanych w chmurze.
5. Ogranicz dostęp do skrzynki e-mail
Nie udostępniaj kont współdzielonych bez wyraźnej potrzeby. Wyłącz przekazywanie dalej i sprawdzaj ustawienia uprawnień.
6. Edukuj się i śledź informacje od IOD
Bierz udział w szkoleniach z zakresu bezpieczeństwa i ochrony danych. Obserwuj komunikaty IOD i działu IT.
7. Aktualizuj oprogramowanie i stosuj polityki bezpieczeństwa
Dbaj o bieżące aktualizacje programów. Używaj uwierzytelniania wieloskładnikowego (MFA), silnych haseł i szyfrowania.
8. Wdrażaj monitoring zdarzeń AI
Rozważ wdrożenie systemów rejestrujących operacje sztucznej inteligencji - od promptów, przez analizę danych wejściowych, po generowane odpowiedzi.
EchoLeak to sygnał ostrzegawczy dla każdej firmy korzystającej z nowoczesnych narzędzi opartych na sztucznej inteligencji. Pokazuje, jak łatwo może dojść do naruszenia danych bez wiedzy użytkownika. W świetle obowiązujących przepisów prawa, organizacje muszą działać proaktywnie, tj. zabezpieczać dane, szkolić pracowników i aktualizować wewnętrzne procedury.
Potrzebujesz pomocy? Masz dodatkowe pytania do Prawnika od RODO?
Zapraszam do kontaktu:
📞 telefon: +48 739 972 265 (po rezerwacji)
✉️ e-mail: biuro@centrumprawneonline.pl
Do napisania lub usłyszenia!
Prawnik
Ewelina Fuławka Nawrocka
NOTA PRAWNO-INFORMACYJNA
Materiał ma charakter informacyjny i nie stanowi porady prawnej. Uwzględnia stan prawny na dzień 4 sierpnia 2025 r. Wszystkie prawa zastrzeżone.
Kontakt
Firma
Info
Social media