Microsoft’un yapay zeka tabanlı iş asistanı Copilot’un, kullanıcıların “gizli” olarak etiketlediği e-postalara erişerek bu içerikleri özetlediği ortaya çıktı. Teknoloji devi, güvenlik açığına neden olan hatayı kabul ederek dünya genelinde bir güncelleme yayınladı.
Microsoft 365 Copilot Chat hizmetinde yaşanan sorun, yapay zekanın Outlook üzerindeki “Taslaklar” ve “Gönderilmiş Öğeler” klasörlerini tararken hassas içerik etiketlerini görmezden gelmesiyle yaşandı. Şirket, kurumsal veri kaybı önleme politikalarını bile devre dışı bırakan bu hatanın ardından güvenlik protokollerini güncellediğini duyurdu.
Veri sızıntısı değil yetki hatası
Microsoft tarafından yapılan açıklamada, söz konusu durumun bir “dış veri sızıntısı” olmadığı savunuldu. Şirket, Copilot’un yalnızca kullanıcının zaten görmeye yetkili olduğu ancak yapay zekanın kapsamı dışında tutulması gereken içerikleri işlediğini belirtti. Hatanın ilk olarak Ocak ayında İngiltere Ulusal Sağlık Sistemi (NHS) çalışanları tarafından fark edildiği, kurumun yaptığı incelemede hasta bilgilerinin tehlikeye girmediği kaydedildi.
Yapay zeka yarışında güvenlik uyarısı
Teknoloji uzmanları, yaşanan bu durumu yapay zeka alanındaki rekabetin hızına ve güvenlik altyapısının bu hıza yetişememesine bağlıyor. Gartner analisti Nader Henein, şirketlerin güvenlik yönetişimi tam olarak oturmadan bu araçları kullanmaya başladığını, bu tür fiyaskoların kaçınılmaz olduğunu ifade etti.
Siber güvenlik uzmanları ise bu tür yapay zeka araçlarının varsayılan olarak “kapalı” konumda gelmesi ve sadece kullanıcının onayıyla belirli verilere erişmesi gerektiği konusunda birleşiyor.




