3 Minuty
Asystenci kodu AI ujawnieni: ukryty markdown może rozprzestrzeniać malware w repozytoriach
Badacze bezpieczeństwa ujawnili niebezpieczną lukę w asystentach programistycznych opartych na AI, która może pozwolić atakującym na wstrzyknięcie złośliwych instrukcji do szeroko udostępnianych plików developerskich — a następnie na ciche ich powielenie w repozytoriach organizacji. Eksploit, zaprezentowany przez firmę cybersecurity HiddenLayer, wykorzystuje sposób, w jaki narzędzia AI parsują markdown w plikach takich jak LICENSE.txt i README.md, aby wyzwalać ukryte akcje.
Na czym polega luka
Poprzez osadzenie ukrytych dyrektyw w komentarzach markdown, które są niewidoczne w renderowanym widoku, atakujący mogą nakłonić asystentów kodu AI do modyfikacji, wstawiania lub replikowania kodu w wielu miejscach. HiddenLayer ostrzega, że takie wstrzyknięcia mogą instalować tylne drzwi, eksfiltrować sekrety lub zmieniać krytyczne systemy, pozostając głęboko ukryte w historii projektu.
Narzędzia podatne według badań
Firma jako dowód koncepcji użyła Cursor — asystenta kodu AI, który podobno jest szeroko stosowany w zespołach inżynierskich Coinbase. HiddenLayer zidentyfikował też podobne słabości w innych narzędziach deweloperskich opartych na AI, w tym Windsurf, Kiro i Aider. Ponieważ te asystenty są zaprojektowane do czytania i działania na plikach repozytorium, ukryte instrukcje w markdownie mogą być wykorzystane do tworzenia samorozprzestrzeniającego się malware przy minimalnej interakcji programisty.

Agresywne wdrożenie AI przez Coinbase wzbudza krytykę
Dyrektor generalny Coinbase, Brian Armstrong, stwierdził niedawno, że AI odpowiada za około 40% dziennej produkcji kodu w firmie, a celem jest wkrótce przekroczenie 50%. Ten nacisk na szerokie użycie kodu generowanego przez AI — który, jak doniesiono, Armstrong wymuszał wewnętrznie — wywołał silny sprzeciw ekspertów ds. bezpieczeństwa, programistów oraz podmiotów powierniczych w kryptowalutach, które podkreślają znaczenie bezpieczeństwa operacyjnego.
Reakcje branży i środowiska akademickiego
Krytycy określili obowiązkowe przyjęcie AI jako poważny sygnał ostrzegawczy dla bezpieczeństwa. Założyciel zdecentralizowanej giełdy Larry Lyu ostrzegał o ryzyku dla wrażliwych firm, a profesor Carnegie Mellon, Jonathan Aldrich, powiedział, że taka polityka skłoniłaby go do większej nieufności wobec usług powierniczych. Inne głosy w środowisku kryptowalut określiły ten nacisk jako pozorny i przestrzegały, że duża giełda kryptowalutowa taka jak Coinbase powinna stawiać na pierwszym miejscu bezpieczne praktyki inżynierskie, a nie cele adopcyjne.
Odpowiedź Coinbase i szersze konsekwencje dla bezpieczeństwa kryptowalut
Zespół inżynierów Coinbase twierdzi, że użycie AI koncentruje się głównie na front-endzie i mniej wrażliwych systemach, podczas gdy krytyczna infrastruktura giełdy pozostaje ściśle kontrolowana. Mimo to ujawnienie podkreśla nowy rodzaj zagrożenia w stylu łańcucha dostaw dla firm blockchain i kryptowalut, które polegają na asystentach kodu AI. W miarę jak branża przyjmuje narzędzia przyspieszające rozwój, rygorystyczny przegląd kodu, audyt zależności i kontrole bezpieczeństwa modeli AI stają się niezbędną obroną.
Równolegle Coinbase nadal rozszerza działalność globalnie i został nazwany przez TIME w 2025 roku „Disruptorem” wśród najbardziej wpływowych firm. Giełda niedawno uzyskała licencję UE w ramach ram MiCA przez Luksemburg, co podkreśla jej rosnącą obecność regulacyjną, nawet gdy debata o bezpieczeństwie się zaostrza.
Źródło: cryptonews
Komentarze