Theo AP, trong 3 tháng qua, các mô hình AI của OpenAI đã bị lạm dụng để tạo các bình luận ngắn, các bài báo bằng nhiều ngôn ngữ khác nhau cũng như tạo tên và tiểu sử giả cho các tài khoản truyền thông xã hội. Các chiến dịch này nhắm vào một số vấn đề địa-chính trị, trong đó có các cuộc xung đột tại Ukraine và Dải Gaza, bầu cử Ấn Độ, các vấn đề chính trị ở châu Âu và Mỹ. OpenAI cho rằng các chiến dịch này "tìm cách thao túng dư luận hoặc gây ảnh hưởng các kết quả chính trị". Theo OpenAI, các chiến dịch phát tán tin sai, tin giả này không thu hút được sự tương tác của khán giả cũng như không mở rộng được phạm vi tiếp cận.
OpenAI công bố đã thành lập Ủy ban An toàn và bảo mật AI nhằm giám sát các vấn đề an toàn của AI, trong bối cảnh công ty bắt đầu đào tạo một mô hình AI mới sau thành công của GPT-4, công nghệ cốt lõi của ChatGPT.