Minh họa cuộc tấn công
Theo báo cáo được công bố vào cuối tháng 5 của công ty bảo mật đám mây Wiz, việc khai thác lỗ hổng này sẽ cho phép truy cập trái phép vào các lời nhắc và kết quả của AI của tất cả khách hàng trên nền tảng của Replicate.
Vấn đề bắt nguồn từ thực tế là các mô hình AI thường được đóng gói ở các định dạng cho phép thực thi mã tùy ý mà kẻ tấn công có thể sử dụng để thực hiện các cuộc tấn công giữa nhiều người thuê bằng một mô hình độc hại.
Replicate sử dụng một công cụ nguồn mở có tên Cog để chứa và đóng gói các mô hình học máy mà sau đó có thể được triển khai trong môi trường tự lưu trữ hoặc để Replicate.
Wiz cho biết họ đã tạo một vùng chứa Cog giả mạo và tải nó lên Replicate, cuối cùng sử dụng nó để thực thi mã từ xa trên cơ sở hạ tầng của dịch vụ với các đặc quyền nâng cao.
Các nhà nghiên cứu bảo mật Shir Tamari và Sagi Tzadik cho biết: “Chúng tôi nghi ngờ kỹ thuật thực thi mã này là một mô hình, trong đó các công ty và tổ chức chạy các mô hình AI từ các nguồn không đáng tin cậy, mặc dù những mô hình này là mã có khả năng độc hại”.
Kỹ thuật tấn công do công ty nghĩ ra sau đó lợi dụng kết nối TCP đã được thiết lập sẵn được liên kết với phiên bản máy chủ Redis trong cụm Kubernetes được lưu trữ trên Google Cloud Platform để đưa vào các lệnh tùy ý.
Hơn nữa, với việc máy chủ Redis tập trung được sử dụng làm nhiều yêu cầu của khách hàng và phản hồi của họ, nó có thể bị lạm dụng để tạo điều kiện cho các cuộc tấn công của nhiều người thuê bằng cách giả mạo quy trình nhằm chèn các tác vụ lừa đảo có thể ảnh hưởng đến kết quả của các máy chủ khác.
Những thao tác lừa đảo này không chỉ đe dọa tính toàn vẹn của các mô hình AI mà còn gây ra rủi ro đáng kể cho tính chính xác và độ tin cậy của các kết quả đầu ra do AI điều khiển.
Các nhà nghiên cứu cho biết: “Kẻ tấn công có thể đã truy vấn các mô hình AI riêng của khách hàng, có khả năng tiết lộ kiến thức độc quyền hoặc dữ liệu nhạy cảm liên quan đến quá trình đào tạo mô hình. Ngoài ra, việc chặn lời nhắc có thể làm lộ dữ liệu nhạy cảm, bao gồm cả thông tin nhận dạng cá nhân (PII)”.
Tiết lộ này được đưa ra hơn một tháng sau khi Wiz nêu chi tiết các rủi ro hiện đã được vá trong các nền tảng như Hugging Face có thể cho phép các tác nhân đe dọa leo thang đặc quyền, giành quyền truy cập của nhiều người thuê vào mô hình của khách hàng khác và thậm chí đảm nhận việc tích hợp liên tục và triển khai liên tục đường ống (CI/CD).
Các nhà nghiên cứu kết luận: “Các mô hình độc hại gây ra rủi ro lớn cho các hệ thống AI, đặc biệt là đối với các nhà cung cấp dịch vụ AI vì những kẻ tấn công có thể tận dụng các mô hình này để thực hiện các cuộc tấn công giữa nhiều người thuê”.
Các chuyên gia cũng cho biết thêm: "Tác động tiềm tàng là rất nghiêm trọng, vì những kẻ tấn công có thể truy cập vào hàng triệu mô hình và ứng dụng AI riêng tư được lưu trữ trong các nhà cung cấp dịch vụ AI”.
Hà Phương
09:00 | 21/05/2024
14:00 | 17/05/2024
16:00 | 18/05/2024
15:00 | 19/01/2024
Ngày 16/1, Google đã phát hành bản cập nhật để khắc phục bốn vấn đề bảo mật trong trình duyệt Chrome, trong đó có một lỗ hổng zero-day đã bị khai thác tích cực trong thực tế.
08:00 | 11/01/2024
Các nhà nghiên cứu bảo mật từ Đại học Ruhr Bochum (Đức) phát hiện ra một lỗ hổng trong giao thức mạng mật mã Secure Shell (SSH) có thể cho phép kẻ tấn công hạ cấp bảo mật của kết nối bằng cách phá vỡ tính toàn vẹn của kênh an toàn.
14:00 | 19/12/2023
Một lỗi bảo mật Bluetooth nghiêm trọng được cho là đã tồn tại trong vài năm gần đây có thể bị tin tặc khai thác để chiếm quyền kiểm soát trên các thiết bị Android, Linux, macOS và iOS.
07:00 | 18/09/2023
Trong ngày 12/9 vừa qua, Adobe và Mozilla đã phát hành các bản cập nhật bảo mật để giải quyết lỗ hổng zero-day nghiêm trọng trên các sản phẩm của mình. Hai lỗ hổng được biết đến lần lượt là CVE-2023-26369 của Adobe và CVE-2023-4863 của Mozilla.
Ngày 30/10, nền tảng LottieFiles đã phát đi cảnh báo về cuộc tấn công chuỗi cung ứng nhắm vào gói npm "lottie-player" của họ. Kẻ tấn công đã lén lút cài mã độc vào các phiên bản mới của gói này nhằm chiếm đoạt tiền điện tử từ ví của người dùng.
07:00 | 07/11/2024