blue and white logo guessing game
Prawnik ds. RODO

  biuro@centrumprawneonline.pl

 +48 739 972 265

Przydatne informacje i porady.

Twoja firma zgodna z prawem.

Blog prawny dla firm

Blog dla firm, Prawnik Firm, Prawnik od RODO,

powrót do bloga

ikona facebook
ikona instagram

Chcesz być na bieżąco z naszymi artykułami? Zaobserwuj nas na Social Mediach 

Polecane artykuły 

Ewelina Fuławka-Nawrocka

Prawnik dla firm

 

Zajmuję się kompleksowym doradztwem prawnym w zakresie ochrony danych osobowych.

Stawiam na holistyczne podejście, profesjonalizm i dbałość o bezpieczeństwo informacji w Twojej firmie.

Najlepszy Prawnik Wrocław prawnik dla firm  online prawniczka Wrocław

EchoLeak to pierwszy atak zero-click na Microsoft 365 Copilot. Jak chronić dane osobowe w erze sztucznej inteligencji?

04 sierpnia 2025

Czy korzystasz w pracy z asystenta Microsoft 365 Copilot? A może planujesz wdrożenie sztucznej inteligencji w codziennej komunikacji biznesowej? Jeśli tak, ten artykuł jest właśnie dla Ciebie.

Poniżej wyjaśniam, czym jest luka bezpieczeństwa EchoLeak - pierwsza w historii podatność umożliwiająca tzw. atak zero-click w środowisku AI (ang. Artificial Intelligence), z jakimi zagrożeniami się wiąże oraz jakie obowiązki i rekomendacje wynikają z tego incydentu dla osób przetwarzających dane osobowe. Szczególną uwagę poświęcam też aspektowi zgodności z ogólnym rozporządzeniem o ochronie danych osobowych (RODO).

 

Spis treści

  1. Czym jest EchoLeak?

  2. Ocena ryzyka

  3. Jak działa atak?

  4. Dlaczego EchoLeak stanowi realne zagrożenie?

  5. Jak zareagował Microsoft?

  6. Aspekt prawny: zgodność z ogólnym rozporządzeniem o ochronie danych osobowych (RODO)

  7. Rekomendacje Inspektora Ochrony Danych (IOD) dla pracowników

  8. Podsumowanie

 

Czym jest EchoLeak?

 

EchoLeak to nowo odkryta podatność, oznaczona jako CVE 2025 32711, wykryta przez specjalistów z Aim Security. To pierwsza luka, która umożliwiła atak zero-click (czyli bez interakcji użytkownika) w środowisku sztucznej inteligencji wbudowanej w Microsoft 365 Copilot.

 

Copilot jest zintegrowanym asystentem AI, działającym w programach takich jak Microsoft Outlook, Microsoft Word, Microsoft Teams czy Microsoft OneDrive. W wyniku ataku dane organizacji mogą zostać wykradzione, nawet jeśli użytkownik nie otworzył wiadomości e-mail ani nie kliknął w żaden link.

 

Ocena ryzyka

 

Zgodnie z analizą Narodowej Bazy Danych o Podatnościach (ang. National Vulnerability Database), luka EchoLeak została oceniona na 7,5 w skali CVSS, co oznacza wysoki poziom zagrożenia.

Natomiast według wewnętrznej oceny firmy Microsoft, ryzyko zostało sklasyfikowane wyżej, na poziomie 9,3, czyli jako krytyczne.

Podatność ta została zakwalifikowana jako przykład tzw. naruszenia zakresu kontekstu (ang. LLM Scope Violation) w systemach opartych na dużych modelach językowych (ang. Large Language Models).

 

Jak działa atak?

 

1. Wstrzyknięcie polecenia (prompt injection)
Atakujący wysyła e-mail zawierający niewidoczne polecenie, zapisane np. w metadanych obrazu lub formacie Markdown. Treść wiadomości może wyglądać jak typowa korespondencja służbowa.

2. Przejęcie kontekstu przez Copilota
Jeśli użytkownik uruchomi funkcję AI (np. poprosi Copilota o podsumowanie wiadomości), system automatycznie analizuje kontekst: treść maila, załączniki, historię rozmów w Microsoft Teams, pliki z Microsoft OneDrive czy Microsoft SharePoint. Złośliwy prompt staje się częścią tej analizy.

3. Wyciek danych
Asystent AI może nieświadomie wygenerować odpowiedź, która ujawnia dane wrażliwe, a nawet przesłać je poza organizację, np. na zewnętrzny serwer kontrolowany przez atakującego.

 

Dlaczego EchoLeak stanowi realne zagrożenie?

 

Poniżej wymieniam najważniejsze zagrożenia wynikające z EchoLeak:

atak nie wymaga kliknięcia ani interakcji użytkownika;

- umożliwia dostęp do poufnych danych, w tym całej zawartości skrzynki e-mail, dokumentów i historii rozmów;

- jest trudny do wykrycia, ponieważ wiadomości wyglądają jak zwykła korespondencja;

- omija tradycyjne zabezpieczenia, takie jak filtry antyphishingowe;

- reprezentuje nową klasę ataków specyficznych dla sztucznej inteligencji.

 

Jak zareagował Microsoft?

 

Microsoft opublikował stosowną aktualizację w czerwcu 2025 roku. Poprawka została wprowadzona po stronie serwera, dzięki czemu użytkownicy nie musieli podejmować żadnych działań. Firma nie odnotowała dotąd masowych nadużyć, ale podkreśla, że dalsze wzmacnianie zabezpieczeń AI jest konieczne.

Dodatkowo Microsoft wdrożył:

- opcje blokowania e-maili zawierających podejrzane polecenia,

- możliwość ograniczenia dostępu Copilota do danych poufnych,

- narzędzia Data Loss Prevention (DLP), które pozwalają nadzorować i ograniczać przekazywanie danych.

 

Aspekt prawny: zgodność z ogólnym rozporządzeniem o ochronie danych osobowych (RODO)

 

Zgodnie z art. 5 ust. 1 lit. f RODO, administrator danych musi zapewnić ich integralność i poufność. W przypadku incydentu, takiego jak EchoLeak, organizacja ma obowiązek:

 - zgłoszenia naruszenia do Prezesa Urzędu Ochrony Danych Osobowych (UODO),

- powiadomienia osób, których dane dotyczą (zgodnie z art. 33 i 34 RODO).

Incydent ten pokazuje, że każda organizacja powinna zrewidować swoje polityki bezpieczeństwa w kontekście narzędzi opartych na AI.

 

Rekomendacje Inspektora Ochrony Danych (IOD) dla pracowników

 

W obliczu zagrożeń, takich jak EchoLeak, ochrona danych osobowych i bezpieczeństwo informacji stają się nie tylko obowiązkiem prawnym, ale również kluczowym elementem codziennej praktyki zawodowej. Nawet najlepsze systemy informatyczne mogą stać się celem ataku, jeśli nie będą odpowiednio wykorzystywane.

Dlatego jako IOD rekomenduję wdrożenie poniższych dobrych praktyk. Ich stosowanie znacząco zmniejsza ryzyko naruszenia bezpieczeństwa danych i wzmacnia odporność organizacji na nowe typy zagrożeń związanych ze sztuczną inteligencją:

 

1. Minimalizuj przetwarzane dane
Udostępniaj tylko dane niezbędne do realizacji celu. W przypadku danych wrażliwych korzystaj z szyfrowanych narzędzi.

2. Z rozwagą korzystaj z funkcji AI
Nie używaj Copilota do analizy wiadomości e-mail zawierających dane osobowe. Rozważ jego czasowe wyłączenie przy pracy z informacjami poufnymi.

3. Weryfikuj wiadomości
Nie otwieraj wiadomości od nieznanych nadawców. Usuń każdą wiadomość budzącą podejrzenia.

4. Porządkuj skrzynkę pocztową
Regularnie usuwaj niepotrzebne e-maile zawierające dane osobowe. Zmniejsz ilość danych przechowywanych w chmurze.

5. Ogranicz dostęp do skrzynki e-mail
Nie udostępniaj kont współdzielonych bez wyraźnej potrzeby. Wyłącz przekazywanie dalej i sprawdzaj ustawienia uprawnień.

6. Edukuj się i śledź informacje od IOD
Bierz udział w szkoleniach z zakresu bezpieczeństwa i ochrony danych. Obserwuj komunikaty IOD i działu IT.

7. Aktualizuj oprogramowanie i stosuj polityki bezpieczeństwa
Dbaj o bieżące aktualizacje programów. Używaj uwierzytelniania wieloskładnikowego (MFA), silnych haseł i szyfrowania.

8. Wdrażaj monitoring zdarzeń AI
Rozważ wdrożenie systemów rejestrujących operacje sztucznej inteligencji - od promptów, przez analizę danych wejściowych, po generowane odpowiedzi.

 

Podsumowanie

 

EchoLeak to sygnał ostrzegawczy dla każdej firmy korzystającej z nowoczesnych narzędzi opartych na sztucznej inteligencji. Pokazuje, jak łatwo może dojść do naruszenia danych bez wiedzy użytkownika. W świetle obowiązujących przepisów prawa, organizacje muszą działać proaktywnie, tj. zabezpieczać dane, szkolić pracowników i aktualizować wewnętrzne procedury.

 

Potrzebujesz pomocy? Masz dodatkowe pytania do Prawnika od RODO?

Zapraszam do kontaktu:
📞 telefon: +48 739 972 265 (po rezerwacji)
✉️ e-mail: biuro@centrumprawneonline.pl

 

Do napisania lub usłyszenia!
Prawnik
Ewelina Fuławka Nawrocka

 

NOTA PRAWNO-INFORMACYJNA

Materiał ma charakter informacyjny i nie stanowi porady prawnej. Uwzględnia stan prawny na dzień 4 sierpnia 2025 r. Wszystkie prawa zastrzeżone.

 

Kontakt

 739 972 265 
 biuro@centrumprawneonline.pl

 

Godziny kontaktu:

pon., czw. i pt. od 14:00 do 17:00

Firma

Info

Social media

ikona facebook
ikona instagram