HỖ TRỢ KHÁCH HÀNG
OpenAI và nỗ lực ngăn chặn các tác nhân độc hại có liên kết với nhà nước
OpenAI đã hợp tác và chia sẻ thông tin với Microsoft nhằm ngăn chặn hoạt động của năm nhóm tin tặc có liên kết với các quốc gia.
Năm nhóm này bao gồm: hai nhóm đe dọa có liên quan đến Trung Quốc có biệt danh ‘Charcoal Typhoon’ và ‘Salmon Typhoon’; nhóm đe dọa liên kết với Iran được gọi là Crimson Sandstorm; nhóm có liên kết với Triều Tiên được biết đến với cái tên Emerald Sleet; nhóm liên kết với Nga được biết đến với cái tên Forest Blizzard. Các tài khoản OpenAI được xác định có liên quan đến những nhóm tác nhân này đã bị chấm dứt.
Những tác nhân này chủ yếu tìm cách sử dụng dịch vụ của OpenAI để truy vấn thông tin nguồn mở, dịch thuật, tìm lỗi lập trình, và thực hiện các tác vụ lập trình cơ bản. Các trường hợp đặc biệt có thể kể đến như:
Hoạt động của những tác nhân này phù hợp với kết quả đánh giá của đội Red (Red team) mà chúng tôi thực hiện trước đây cùng với các chuyên gia an ninh mạng bên ngoài.
Các đánh giá của đội Red (Red Team) phát hiện ra rằng GPT-4 chỉ cung cấp các khả năng hạn chế, tăng cường từng bước cho các nhiệm vụ an ninh mạng độc hại, không vượt qua những gì có thể đạt được với các công cụ không sử dụng AI, có sẵn công khai.
Mặc dù khả năng của các mô hình hiện tại của OpenAI đối với các tác vụ an ninh mạng độc hại còn hạn chế, nhưng OpenAI tin rằng điều quan trọng là phải đón đầu các mối đe dọa lớn và đang gia tăng.
Để đối phó với mối đe dọa, OpenAI đang thực hiện nhiều giải pháp đa chiều để chống lại việc các tác nhân độc hại có liên kết với nhà nước sử dụng nền tảng của OpenAI
OpenAI đầu tư vào công nghệ và đội ngũ để xác định và ngăn chặn hoạt động của các tác nhân đe dọa tinh vi.
Đội Intelligence and Investigations (Tình báo và Điều tra), Safety (An toàn), Security (Bảo mật) và Integrity (Chính trực) của OpenAI điều tra các tác nhân độc hại theo nhiều cách khác nhau.
Hành động này bao gồm cả việc sử dụng mô hình của OpenAI để theo dõi manh mối, phân tích cách đối thủ tương tác với nền tảng của OpenAI và đánh giá ý đồ rộng lớn của họ.
Nếu phát hiện hành vi bất thường, OpenAI sẽ thực hiện hành động thích hợp để làm gián đoạn các hoạt động của họ, chẳng hạn như vô hiệu hóa tài khoản, chấm dứt dịch vụ hoặc hạn chế quyền truy cập vào tài nguyên.
OpenAI hợp tác với các đối tác trong ngành và các bên liên quan khác để thường xuyên trao đổi thông tin về việc các tác nhân độc hại có liên kết với nhà nước bị phát hiện sử dụng AI.
Sự hợp tác này phản ánh cam kết tự nguyện của OpenAI nhằm thúc đẩy sự phát triển và sử dụng công nghệ AI một cách an toàn, bảo mật và minh bạch, đồng thời nhằm mục đích thúc đẩy các phản ứng tập thể trước các rủi ro trên toàn hệ sinh thái thông qua chia sẻ thông tin.
Học hỏi từ việc sử dụng trong thế giới thực (bao gồm lạm dụng) là một yếu tố quan trọng trong việc tạo và phát hành các hệ thống AI ngày càng an toàn theo thời gian.
OpenAI rút ra bài học từ hành vi lạm dụng của những đối tượng độc hại và sử dụng chúng để thông báo cho cách tiếp cận lặp lại về an toàn.
Từ lâu, OpenAI đã tìm cách nêu bật những khả năng lạm dụng AI và chia sẻ những gì OpenAI đã học được về an toàn với ngành và cộng đồng.
Đa số mọi người sử dụng hệ thống của OpenAI để cải thiện cuộc sống hàng ngày, từ các ứng dụng học tập ảo cho học sinh đến ứng dụng có thể chuyển đổi văn bản cho người khiếm thị.
Tuy nhiên, giống như nhiều hệ sinh thái khác, có một số ít tác nhân độc hại cần được quan tâm liên tục để mọi người khác có thể tiếp tục tận hưởng lợi ích.
Mặc dù Open nỗ lực giảm thiểu khả năng lạm dụng, không thể ngăn chặn mọi trường hợp. Nhưng bằng cách tiếp tục đổi mới, điều tra, hợp tác và chia sẻ, OpenAI sẽ làm cho hành vi sai trái của các tác nhân độc hại trở nên khó khăn hơn trong hệ sinh thái kỹ thuật số và cải thiện trải nghiệm cho mọi người khác.
Nguồn: OpenAI
Share:
Bài viết liên quan
Gửi tin nhắn cho chúng tôi
Bài viết khác
HỖ TRỢ KHÁCH HÀNG
HỖ TRỢ KHÁCH HÀNG