
Các chuyên viên kiểm tra thông tin của tổ chức Full Fact tại trụ sở ở thủ đô London, Anh - Ảnh: FULL FACT
Từ chọn lọc phát ngôn đến xử lý thông tin sai lệch, trí tuệ nhân tạo (AI) đang trở thành công cụ đắc lực giúp các tổ chức kiểm chứng trên thế giới đối phó với làn sóng tin giả, theo Viện nghiên cứu truyền thông Poynter.
Tuy nhiên công nghệ AI không thay con người xác minh, mà giúp họ tập trung vào những thông tin sai lệch nguy hiểm nhất.
AI giúp xác định phát ngôn 'đáng kiểm chứng' nhất
Tại Anh, tổ chức kiểm chứng thông tin Full Fact mỗi ngày phát hiện trung bình 240.437 nội dung cần xác minh nhờ AI.
Tuy nhiên hơn 99% số này bị loại vì không quan trọng, bao gồm ý kiến cá nhân, dự đoán, thông tin không rõ ràng hoặc không có tác động cụ thể.
Sau bước lọc tự động, các kiểm chứng viên chỉ lựa chọn khoảng 10 phát ngôn, nội dung mỗi ngày để kiểm tra thủ công, dựa trên các tiêu chí như mức độ lan truyền, mức độ gây hại và uy tín của người phát ngôn.
Theo khảo sát của Full Fact với 70 tổ chức kiểm chứng toàn cầu, ba yếu tố hàng đầu để công cụ này lựa chọn nội dung kiểm tra gồm khả năng gây hại (93%), mức độ lan truyền rộng (83%) và mức độ ảnh hưởng của người phát ngôn (81%).
Ngoài ra, các tổ chức cũng cân nhắc khả năng kiểm chứng phát ngôn (71%), nguy cơ gây hại trong tương lai (54%) và phản hồi từ độc giả (47%).
Chỉ 26% tổ chức cho biết có để ý đến yếu tố “phát ngôn đến từ phe nào”, cho thấy họ không đặt nặng yếu tố chính trị.
Đối mặt hoài nghi thiên vị và cuộc đua ứng dụng AI
Vấn đề “thiên vị chính trị” từng được CEO Công ty Meta Mark Zuckerberg nhắc đến, khi ông tuyên bố ngưng hợp tác với các tổ chức kiểm chứng độc lập tại Mỹ hồi tháng 1-2025.
Ông Zuckerberg cho rằng việc chọn phát ngôn để kiểm tra ở Mỹ có xu hướng không công bằng giữa các phe.
Tuy nhiên, nhiều chuyên gia chỉ ra rằng tần suất phát ngôn sai và mức độ ảnh hưởng giữa các chính trị gia vốn không đồng đều nên khó thể chia đều “50-50”.
Để cải thiện tính khách quan, tổ chức Full Fact đã phát triển một mô hình đánh giá phát ngôn dựa trên mức độ nguy hiểm, từ đó giúp tổ chức này ưu tiên kiểm chứng những thông tin có nguy cơ gây hại cao nhất.
Mô hình này cũng được các nghiên cứu sinh tại Đại học Wisconsin-Madison (nằm ở bang Wisconsin, Mỹ) đánh giá là có tính hiệu quả trong thực tiễn.
Thực tế cho thấy các phát ngôn sai lệch có thể gây ra hậu quả nghiêm trọng như ảnh hưởng đến sức khỏe cộng đồng, gây hoang mang xã hội, kích động bạo lực, gây tổn thất kinh tế hoặc ảnh hưởng tâm lý cá nhân.
Để mở rộng quy mô xử lý thông tin sai lệch, hiện có hai hướng tiếp cận chính.
Một là cơ chế “Ghi chú cộng đồng” như trên nền tảng X, TikTok hay Meta, nơi người dùng cùng xác định độ chính xác thông tin.
Hai là dùng AI để “gắn nhãn” cho các nội dung sai lệch cũ và mới, như Meta từng làm với 27 triệu bài viết chỉ trong 6 tháng đầu năm 2024.
Dù chưa thể thay thế con người, AI đang giúp các tổ chức kiểm chứng tiết kiệm thời gian và tập trung hơn vào những phát ngôn sai lệch nguy hiểm nhất. Qua đó tạo ra ảnh hưởng lớn hơn trong việc bảo vệ người dùng khỏi thông tin sai lệch trên mạng xã hội.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận