Trong thời đại công nghệ số hiện nay, việc bảo mật thông tin cá nhân trở thành một vấn đề nóng bỏng. Mới đây, Grok, một chatbot do công ty xAI của Elon Musk phát triển, đã gây chấn động khi hàng triệu cuộc trò chuyện của người dùng bị công khai mà không có sự đồng ý của họ.
Khi người dùng nhấn nút “chia sẻ” trong cuộc trò chuyện với Grok, một liên kết sẽ được tạo ra, cho phép họ gửi cuộc trò chuyện qua email hoặc các ứng dụng nhắn tin khác. Tuy nhiên, điều đáng lo ngại là những liên kết này cũng được cung cấp cho các công cụ tìm kiếm như Google và Bing, khiến bất kỳ ai cũng có thể tìm thấy thông tin này mà không hề được cảnh báo trước.
Theo thông tin từ một nguồn tin đáng tin cậy, vào ngày 20/8, đã có hơn 370.000 cuộc trò chuyện của người dùng Grok được ghi nhận và hiển thị trên Google. Trong số đó, không chỉ có những nội dung thông thường mà còn có nhiều câu hỏi nhạy cảm liên quan đến sức khỏe và tâm lý, thậm chí một số người đã tiết lộ thông tin cá nhân như tên tuổi và mật khẩu. Điều này cho thấy mức độ nghiêm trọng của việc bảo mật thông tin trong các ứng dụng AI hiện nay.
Đáng chú ý, một số cuộc trò chuyện đã vi phạm các quy định của xAI. Công ty này cấm sử dụng chatbot để thực hiện các hành vi gây hại cho con người hoặc phát triển vũ khí. Tuy nhiên, trong các cuộc trò chuyện bị lộ, Grok đã cung cấp hướng dẫn về cách sản xuất các chất ma túy bất hợp pháp và các hoạt động nguy hiểm khác.
Hiện tại, xAI vẫn chưa có phản hồi chính thức về vụ việc này. Tuy nhiên, đây không phải là lần đầu tiên một công ty công nghệ gặp phải vấn đề tương tự. Vào đầu tháng 8, người dùng của một chatbot nổi tiếng khác cũng đã phát hiện ra rằng các cuộc hội thoại của họ xuất hiện trên kết quả tìm kiếm của Google. Sau khi nhận được phản ứng từ cộng đồng, công ty đó đã nhanh chóng điều chỉnh chính sách của mình.
Chuyên gia bảo mật thông tin đã khuyến cáo người dùng không nên chia sẻ thông tin cá nhân nhạy cảm khi sử dụng các chatbot. Họ nhấn mạnh rằng các hệ thống AI hiện tại chưa được thiết kế để thông báo rõ ràng về việc dữ liệu của người dùng có thể bị lộ ra ngoài. Điều này đặc biệt nguy hiểm khi trẻ em cũng có thể tiếp cận các công nghệ này.
Chuyên gia cũng nhấn mạnh rằng các công ty phát triển AI cần phải minh bạch hơn về các rủi ro mà người dùng có thể gặp phải. Họ cần đảm bảo rằng người dùng hiểu rõ rằng dữ liệu của họ có thể bị công khai trên các nền tảng khác nhau.
Những sự cố như vậy không chỉ ảnh hưởng đến người dùng mà còn đặt ra nhiều câu hỏi về trách nhiệm của các công ty công nghệ trong việc bảo vệ thông tin cá nhân của khách hàng.