ChatGPT bị từ chối vì OpenAI hợp tác với Bộ Quốc phòng Mỹ.
Câu hỏi về hợp tác với cơ quan quốc phòng
Lo ngại về những hậu quả tiềm ẩn của mối quan hệ giữa OpenAI và Bộ Quốc phòng Hoa Kỳ (MoD), một phần cộng đồng Mỹ đã thành lập phong trào “hủy bỏ ChatGPT”. Mục tiêu của sáng kiến là hỗ trợ Anthropic, công ty bị đưa vào “danh sách đen” của Pentagon sau khi từ chối cho phép sử dụng mô hình AI của mình trong một số nhiệm vụ.
Tại sao Anthropic lại xuất hiện trong danh sách
Trong cuộc xung đột với MoD có hai “đường rào đỏ” mà nhà phát triển AI không muốn vượt qua:
1. Không được cấp quyền tự chủ cho mô hình quyết định việc sử dụng vũ khí.
2. Mô hình không được dùng để giám sát công dân Mỹ.
Khi Anthropic từ chối, hợp đồng với MoD bị hủy và công ty được đưa vào danh sách đen, cấm mọi nhà thầu quốc phòng làm việc với họ.
Chuyển sang OpenAI
Sau khi loại bỏ Anthropic khỏi các chương trình quốc phòng, MoD đã chọn OpenAI. Giám đốc công ty Sam Altman tuyên bố rằng mô hình của họ sẽ không được dùng cho giám sát đại chúng. Tuy nhiên, quan chức chính phủ bác bỏ điều đó: họ nhấn mạnh rằng AI chỉ được sử dụng trong “kịch bản hợp pháp”, và Đạo luật Patriot năm 2001 cho phép thu thập siêu dữ liệu trên mạng liên lạc, ngay cả khi một số quy định của nó đã bị hạn chế.
Phản ứng của công chúng và các công ty AI khác
Sự kiện này gây ra phản ứng tiêu cực mạnh mẽ trong cộng đồng trực tuyến. Những người tuyên bố ngừng sử dụng ChatGPT bắt đầu nhận được phản hồi tích cực. Cần lưu ý rằng việc từ bỏ “đường rào đỏ” không bắt buộc cho tất cả các nhà sản xuất AI lớn:
- Google trước đây đã áp dụng hạn chế tương tự trong quy định nội bộ, nhưng rồi đã hủy bỏ.
- Microsoft cho phép sử dụng AI trong vũ khí với điều kiện bắn được thực hiện bởi con người.
- Amazon giới hạn vào nguyên tắc “sử dụng có trách nhiệm” mà không đưa ra chi tiết cụ thể.
Vị thế của OpenAI và khung pháp lý
Sam Altman lặp lại lời hứa tuân thủ “đường rào đỏ” về vũ khí tự động và giám sát đại chúng, nhưng chưa làm rõ cơ chế thực hiện. Ông tham khảo luật hiện hành của Hoa Kỳ, cho phép thu thập dữ liệu cá nhân không phải công dân Mỹ vì mục đích an ninh.
Đối với công chúng rộng lớn, OpenAI đã trình bày với Pentagon một cách hiểu linh hoạt về những gì được coi là hợp pháp, trong khi Anthropic duy trì kiểm soát nghiêm ngặt đối với việc áp dụng công nghệ của mình. Kết quả là sản phẩm Claude AI của Anthropic trở thành ứng dụng hàng đầu trong các ứng dụng chính thức cho Android và iOS, cũng như đã ra mắt trên Windows 11.
Bình luận (0)
Chia sẻ ý kiến của bạn — vui lòng lịch sự và đúng chủ đề.
Đăng nhập để bình luận