Tim Cook giải thích việc tăng giá Iphone 17 trên thị trường
Phone 17 Air thiếu những gì?
Khách hàng đặc Iphone 17 Pro Max cháy hàng tại các đại lý
Onana rạn nứt với HLV Amorim, nguy cơ chia tay MU sau hàng loạt biến cố
Brazil lộ diện sự thật sau vòng loại thảm họa World Cup 2026
Màu cam viền nhôm của Iphone 17 pro đầy mới lạ cho người dùng nào thích
Thủ môn Valencia Jaume Domenech giải nghệ vì con gái
Cambricon – start-up chip AI Trung Quốc thách thức vị thế của Huawei
iPhone 17 mở bán tại Việt Nam từ sáng sớm, chấm dứt cảnh xếp hàng nửa đêm
Sự thật về tin Neymar thừa kế 1 tỷ USD từ doanh nhân Brazil
Anthropic cập nhật chính sách dữ liệu cho người dùng Claude AI: Hạn chót 28/9

Công ty AI Anthropic ra mắt điều khoản mới về quyền riêng tư và sử dụng dữ liệu với người dùng Claude AI. Người dùng phải đưa ra lựa chọn trước ngày 28/9 để tiếp tục sử dụng chatbot.
Ngày 28/8, công ty AI Anthropic thông báo ra mắt bản cập nhật Điều khoản Dịch vụ dành cho Người dùng và Chính sách Quyền riêng tư. Người dùng giờ đây có thể lựa chọn cho phép dữ liệu của mình được sử dụng để cải thiện Claude và tăng cường các biện pháp bảo vệ khỏi những hành vi lạm dụng như lừa đảo và gian lận.
Thông báo này sẽ được triển khai trong chatbot kể từ ngày 28/8. Người dùng có một tháng để chấp nhận hoặc từ chối điều khoản. Các chính sách mới sẽ có hiệu lực ngay lập tức khi ấn chấp nhận. Sau ngày 28/9, người dùng bắt buộc đưa ra lựa chọn để có thể tiếp tục sử dụng Claude.
Theo công ty, những cập nhật nhằm giúp mang đến những mô hình AI hữu ích và mạnh mẽ hơn. Việc điều chỉnh tùy chọn này rất đơn giản và có thể thực hiện bất kỳ lúc nào trong Cài đặt Quyền riêng tư (Privacy Settings).
Những thay đổi này được thực hiện trên các gói Claude Free, Pro và Max, đi kèm Claude Code, công cụ lập trình của Anthropic. Các dịch vụ theo Điều khoản Thương mại sẽ không được áp dụng, bao gồm Claude for Work, Claude Gov, Claude for Education hoặc việc sử dụng API, kể cả thông qua bên thứ ba như Amazon Bedrock và Google Cloud’s Vertex AI.
Trong bài blog của mình, Anthropic cho biết bằng cách tham gia, người dùng sẽ giúp cải thiện độ an toàn của mô hình, tăng khả năng phát hiện chính xác nội dung độc hại và giảm nguy cơ gắn cờ nhầm các cuộc trò chuyện vô hại. Các phiên bản Claude trong tương lai cũng được nâng cao kỹ năng như lập trình, phân tích và suy luận.
Điều quan trọng là người dùng có toàn quyền kiểm soát dữ liệu của mình, và cho phép nền tảng sử dụng chúng hay không trong một cửa sổ hiển thị. Tài khoản mới có thể tùy chọn thiết lập trong quá trình đăng ký.

Thời gian lưu trữ dữ liệu được tăng lên 5 năm, áp dụng cho những cuộc trò chuyện hoặc phiên lập trình (coding session) mới hoặc được tiếp tục từ các phiên cũ, cũng như phản hồi về câu trả lời của chatbot. Dữ liệu được xoá đi sẽ không được dùng để huấn luyện mô hình trong tương lai. Nếu không đồng ý cung cấp dữ liệu để huấn luyện, người dùng sẽ tiếp tục với chính sách lưu trữ hiện tại là 30 ngày.
Giải thích về chính sách, Anthropic cho rằng chu kỳ phát triển AI thường kéo dài nhiều năm, việc giữ dữ liệu nhất quán trong suốt quá trình huấn luyện cũng giúp mô hình nhất quán hơn. Thời gian lưu trữ dữ liệu dài hơn cũng giúp cải thiện các bộ phân loại, hệ thống dùng để nhận diện hành vi lạm dụng, nhằm phát hiện các mẫu hành vi gây hại.
“Để bảo vệ quyền riêng tư của người dùng, chúng tôi sử dụng kết hợp nhiều công cụ và quy trình tự động nhằm lọc hoặc ẩn đi các dữ liệu nhạy cảm. Chúng tôi không bán dữ liệu của người dùng cho bên thứ ba”, công ty viết.
Anthropic thường được nhắc đến là một trong những doanh nghiệp đi đầu về AI an toàn. Anthropic phát triển một phương pháp gọi là Constitutional AI, đặt ra các nguyên tắc đạo đức và hướng dẫn mà mô hình phải tuân theo. Anthropic cũng là một trong những công ty tham gia các cam kết AI an toàn với chính phủ Mỹ, Anh và nhóm G7.