Microsoft sẽ siết chặt việc tội phạm mạng lạm dụng AI tạo sinh
VOV.VN - Microsoft vừa công bố quyết định khởi kiện các tội phạm mạng bị cáo buộc đã lạm dụng công cụ AI (trí tuệ nhân tạo) tạo sinh cho các mục đích xấu.
Trong tuyên bố của mình, Microsoft cho biết những tội phạm mạng này đã vi phạm luật pháp Mỹ liên quan đến chính sách sử dụng và bộ quy tắc ứng xử liên quan đến các công cụ AI.
Theo Microsoft, một nhóm tội phạm mạng có trụ sở ở bên ngoài Mỹ đã phát triển phần mềm tinh vi nhằm khai thác thông tin đăng nhập của khách hàng bị lộ từ các trang web công cộng. Những kẻ này đã tìm cách truy cập trái phép vào các tài khoản dịch vụ AI, đồng thời cố tình thay đổi khả năng của các dịch vụ này. Sau đó, chúng đã sử dụng các dịch vụ này để tạo ra nội dung có hại và bán lại quyền truy cập cho các tác nhân độc hại khác kèm theo hướng dẫn chi tiết về cách sử dụng các công cụ tùy chỉnh.
Hành động quyết liệt của Microsoft
Khi phát hiện ra hành vi này, Microsoft đã ngay lập tức thu hồi quyền truy cập của các tội phạm mạng, đồng thời triển khai các biện pháp đối phó và tăng cường bảo mật để ngăn chặn các hoạt động độc hại trong tương lai. Trong khuôn khổ hành động pháp lý, Microsoft đã được tòa án cấp lệnh tịch thu một trang web quan trọng trong việc cung cấp các dịch vụ bất hợp pháp. Công ty dự định sử dụng quyền truy cập này để điều tra những người đứng sau dịch vụ và tìm hiểu cách thức mà các dịch vụ này được kiếm tiền.
Mặc dù các tội phạm mạng vẫn đang hoạt động ngoài vòng pháp luật, Microsoft đang nỗ lực tạo ra thêm các rào cản nhằm làm khó khăn hơn cho việc khai thác AI theo cách mà công ty đã quan sát. Dù các đối tượng này có thể tìm cách vượt qua các rào cản nhưng điều này sẽ làm chậm tiến độ của chúng và cho Microsoft thêm thời gian để điều tra.
Các chính phủ và công ty công nghệ hiện đang rất chú trọng vào các mối đe dọa mà AI có thể gây ra. Giống như bất kỳ phần mềm nào khác, AI có nhiều ứng dụng hữu ích nhưng cũng có nguy cơ bị lạm dụng cho mục đích xấu. Sự cố này cho thấy khả năng của Microsoft trong việc điều chỉnh các mô hình AI của mình để thích ứng với các mối đe dọa mới nổi.