Đại diện của OpenAI đã xác nhận với Bloomberg rằng tiêu đề của các cuộc trò chuyện của người dùng khác đã hiển thị trong thanh công cụ lịch sử người dùng ở bên trái trang web ChatGPT. Họ nhấn mạnh rằng chỉ những mô tả ngắn này mới có thể nhìn thấy, không phải nội dung của các cuộc trò chuyện.
Trong khi OpenAI vẫn đang điều tra nguyên nhân chính xác của vấn đề, công ty xác nhận rằng nó bắt nguồn từ một lỗi trong một phần mềm mã nguồn mở chưa được đặt tên. Người dùng Reddit và Twitter (qua The Verge) đã chia sẻ ảnh chụp màn hình của lỗi này, khiến người dùng tự hỏi liệu họ đã bị hack - hay là ChatGPT đã bị xâm nhập.
If you use #ChatGPT be careful! There's a risk of your chats being shared to other users!
— Jordan L Wheeler (@JordanLWheeler) March 20, 2023
Today I was presented another user's chat history.
I couldn't see contents, but could see their recent chats' titles.#security #privacy #openAI #AI pic.twitter.com/DLX3CZntao
Toàn bộ dịch vụ ChatGPT đã bị OpenAI tạm ngừng vào tối thứ Hai trước khi trở lại vào tối muộn cùng ngày mà không có lịch sử trò chuyện của người dùng. Tính đến sáng nay, chúng vẫn chưa được khôi phục. Trang trạng thái của OpenAI cho biết công ty tiếp tục làm việc để khôi phục lịch sử trò chuyện trong quá khứ cho người dùng.
Chính OpenAI khuyến cáo người dùng không nên chia sẻ bất kỳ thông tin nhạy cảm nào trong các cuộc trò chuyện với ChatGPT, lưu ý rằng chúng có thể được sử dụng cho mục đích đào tạo.
Sự cố này nhắc lại những cảnh báo gần đây về AI sinh sản như ChatGPT từ Trung tâm An ninh Mạng Quốc gia của Vương quốc Anh (NCSC). Cơ quan này đưa ra lo ngại về việc các truy vấn nhạy cảm của người dùng có sẵn cho các nhà cung cấp (trong trường hợp này là OpenAI) và được sử dụng để đào tạo phiên bản tương lai của chatbot. Ví dụ mà họ đưa ra là một CEO hỏi về cách tốt nhất để sa thải một nhân viên, hoặc ai đó hỏi một câu hỏi y tế cá nhân.
NCSC cũng đã đưa ra cảnh báo trước về việc các truy vấn được lưu trữ có thể vô tình được công khai. May mắn thay, không có thông tin cá nhân nào được tiết lộ cùng với tiêu đề cuộc trò chuyện trong trường hợp này.
Cuối cùng, lỗi này minh họa tại sao các công ty như Amazon và JPMorgan đã khuyến cáo nhân viên của họ không nên sử dụng ChatGPT vì lo ngại thông tin nhạy cảm có thể bị rò rỉ.