Nhằm tăng cường bảo mật cho chatbot AI ChatGPT phổ biến của mình, OpenAI đang tìm kiếm các chuyên gia an ninh mạng và xâm nhập bên ngoài, còn được gọi là “đội đỏ”, để tìm lỗ hổng trong nền tảng AI.
Công ty cho biết họ đang tìm kiếm các chuyên gia trên nhiều lĩnh vực khác nhau, bao gồm khoa học nhận thức và máy tính, kinh tế, y tế và an ninh mạng. Mục tiêu của OpenAI là cải thiện tính an toàn và đạo đức của các mô hình AI.
Lời mời gọi công khai này được đưa ra khi Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) bắt đầu điều tra về việc thu thập dữ liệu và thực hành bảo mật của OpenAI, và các nhà hoạch định chính sách và tập đoàn đang đặt câu hỏi về mức độ an toàn khi sử dụng ChatGPT.
“Họ đang kêu gọi các tình nguyện viên tham gia và thực hiện các hoạt động bảo mật thú vị”, Halborn Co-founder & CISO Steven Walbroehl nói với Decrypt. “Đây là một cơ hội để kết nối và có cơ hội ở tuyến đầu của công nghệ.”
“Những tin tặc giỏi nhất thích tấn công công nghệ mới nổi”, Walbroehl nói thêm.
Để làm cho thỏa thuận hấp dẫn hơn, OpenAI cho biết các thành viên của đội đỏ sẽ được trả công và không cần có kinh nghiệm trước với AI, chỉ cần có ý nguyện đóng góp những quan điểm đa dạng.
“Chúng tôi đang thông báo về cuộc gọi công khai cho Mạng lưới Red Teaming của OpenAI và mời các chuyên gia lĩnh vực quan tâm đến việc cải thiện tính an toàn của các mô hình OpenAI tham gia cùng nỗ lực của chúng tôi,” OpenAI viết. “Chúng tôi đang tìm kiếm các chuyên gia từ nhiều lĩnh vực khác nhau để hợp tác với chúng tôi trong việc đánh giá và kiểm tra nghiêm ngặt các mô hình AI của chúng tôi.”
Các đội đỏ là các chuyên gia an ninh mạng có chuyên môn tấn công, còn được gọi là kiểm tra thâm nhập hoặc pen-testing, hệ thống và khai thác lỗ hổng. Ngược lại, các đội xanh là các chuyên gia an ninh mạng bảo vệ hệ thống khỏi các cuộc tấn công.
“Ngoài việc tham gia mạng lưới, còn có các cơ hội hợp tác khác để góp phần vào an toàn AI,” OpenAI tiếp tục. “Ví dụ, một lựa chọn là tạo hoặc thực hiện đánh giá an toàn trên các hệ thống AI và phân tích kết quả.”
Được ra mắt vào năm 2015, OpenAI đã thu hút sự chú ý của công chúng vào cuối năm ngoái với việc ra mắt công khai ChatGPT và GPT-4 tiên tiến hơn vào tháng 3, gây bão thế giới công nghệ và đưa AI tổng hợp vào dòng chính.
Vào tháng 7, OpenAI đã gia nhập Google, Microsoft và các công ty khác để cam kết phát triển các công cụ AI an toàn và bảo mật.
Trong khi các công cụ AI tổng hợp như ChatGPT đã cách mạng hóa cách mọi người tạo nội dung và tiêu thụ thông tin, thì các chatbot AI không phải không có tranh cãi, thu hút các cáo buộc thiên vị, phân biệt chủng tộc, nói dối (ảo tưởng) và thiếu minh bạch về cách thức và nơi lưu trữ dữ liệu người dùng.
Mối quan ngại về quyền riêng tư của người dùng đã khiến một số quốc gia, bao gồm Ý, Nga, Trung Quốc, Triều Tiên, Cuba, Iran và Syria, thực hiện lệnh cấm sử dụng ChatGPT trong biên giới của họ. Để đáp lại, OpenAI đã cập nhật ChatGPT để bao gồm chức năng xóa lịch sử trò chuyện nhằm tăng cường quyền riêng tư của người dùng.
Chương trình Đội đỏ là nỗ lực mới nhất của OpenAI nhằm thu hút các chuyên gia bảo mật hàng đầu giúp đánh giá công nghệ của mình. Vào tháng 6, OpenAI đã cam kết 1 triệu USD cho các biện pháp và sáng kiến an ninh mạng sử dụng trí tuệ nhân tạo.
Mặc dù công ty cho biết các nhà nghiên cứu không bị hạn chế trong việc công bố phát hiện của họ hoặc theo đuổi các cơ hội khác, OpenAI lưu ý rằng các thành viên của chương trình nên biết rằng việc tham gia vào red teaming và các dự án khác thường phải tuân theo Thỏa thuận bảo mật không tiết lộ (NDAs) hoặc “phải giữ bí mật trong thời hạn không xác định.”
Việc OpenAI tuyển dụng các chuyên gia an ninh mạng để kiểm tra độ an toàn của ChatGPT là một động thái tích cực. ChatGPT là một công cụ AI mạnh mẽ, nhưng nó cũng có thể bị khai thác để gây hại. Việc có các chuyên gia bảo mật kiểm tra kỹ lưỡng ChatGPT sẽ giúp giảm thiểu nguy cơ này.
Bên cạnh đó, việc OpenAI cam kết phát triển các công cụ AI an toàn và bảo mật là một tín hiệu tốt. AI có tiềm năng mang lại nhiều lợi ích cho xã hội, nhưng nó cũng có thể gây ra những rủi ro đáng kể. Việc OpenAI ưu tiên an toàn cho các mô hình AI của mình là một bước quan trọng để đảm bảo rằng AI được sử dụng một cách có trách nhiệm.
Chúng ta có thể mong đợi những tiến bộ đáng kể trong lĩnh vực an ninh AI trong những năm tới. Khi các công nghệ AI ngày càng trở nên tinh vi hơn, các chuyên gia an ninh cũng cần phải nâng cao kỹ năng và kiến thức của mình để bảo vệ chúng ta khỏi những mối đe dọa tiềm ẩn.