TTCT - Trên số báo cuối tháng 6, The Economist nhắc câu nói nổi tiếng của tỉ phú công nghệ Elon Musk: “Với trí thông minh nhân tạo, chúng ta đang triệu hồi quỷ dữ”. Bạn có tin tưởng vào quyết định của xe tự lái? Chưa đầy một tuần sau, Công ty Telsa của Musk đối mặt tin dữ: đã có người chết vì xe tự lái của hãng. Dù Telsa trang bị cho những chiếc xe của mình công nghệ AI (trí tuệ nhân tạo) hiện đại nhất để chúng có thể tự vận hành, song chính nhà tỉ phú vẫn lo sợ về tương lai mà “AI trở nên mạnh đến mức vượt tầm kiểm soát của con người”. Sự cố chết người đầu tiên có liên quan đến công nghệ tự lái Autopilot của Telsa có thể sẽ khiến Musk phải lo nghĩ về một khía cạnh “quỷ dữ” khác của trí tuệ nhân tạo: vấn đề đạo đức. Câu hỏi cốt lõi khi bàn đến quy chuẩn đạo đức cho xe tự lái là trong trường hợp tai nạn, ai sẽ là người chịu trách nhiệm - người ngồi trên xe hay hãng sản xuất xe? Làm sao để những cỗ xe tự hành có thể đưa ra các lựa chọn mang tính đạo đức trong các tình huống tai nạn mà ở đó nó chỉ có thể chọn một trong hai: phải “hi sinh” người trên xe hay người mà nó sắp tông phải? Lỗi của ai? Tạp chí Forbes ngày 1-7 giật tít: “Telsa có phải chịu trách nhiệm trong vụ tai nạn chết người vì công nghệ tự lái không?”, và tự trả lời “Có lẽ có” ngay trong tựa bài. Vì sao Forbes tin rằng chính hãng sản xuất xe hơi, chứ không phải người ngồi trên xe, mới phải chịu trách nhiệm cho vụ tai nạn ngày 7-5? Telsa giải thích: nạn nhân đang ngồi sau tay lái chiếc Model S có bật chế độ tự lái Autopilot trên một xa lộ ở Florida thì bị một chiếc xe đầu kéo cắt ngang. “Cả Autopilot lẫn tài xế đều không thấy phần hông màu trắng của chiếc xe tải vì bị lóa nắng, khiến chiếc Model S chạy xuyên qua gầm của xe này và bị phần đuôi của container đập vào kính chắn gió” - thông cáo của Telsa viết. Hãng xe biện luận rằng chế độ Autopilot có trạng thái mặc định là tắt, và một khi được kích hoạt, hệ thống sẽ liên tục thông báo với tài xế rằng công nghệ này vẫn còn ở giai đoạn chạy thử và rằng “(Autopilot) chỉ là tính năng trợ giúp và đòi hỏi tài xế phải luôn đặt tay lên vôlăng suốt thời gian di chuyển”. Hệ thống cũng khuyến cáo tài xế “phải chịu trách nhiệm với chiếc xe của mình và luôn sẵn sàng nắm lại quyền điều khiển (từ Autopilot)”. Hệ thống sẽ tự động giảm tốc độ xe nếu nhận ra tay tài xế đã rời vôlăng. Forbes cho rằng nhiều người đã dựa vào các khuyến cáo kiểu miễn trừ trách nhiệm nói trên để khẳng định tài xế phải chịu trách nhiệm trong tai nạn thay vì Telsa. Theo Forbes, Telsa đã vi phạm các chuẩn mực đạo đức khi để con người tham gia vào quá trình chạy thử nghiệm công nghệ của họ. Nếu việc chạy thử một phần mềm máy tính bình thường cùng lắm là làm treo máy, mất dữ liệu của khách hàng, thì tác hại của việc để con người chạy xe có công nghệ tự lái chưa hoàn thiện chính là mạng người. Ngay cả khi tài xế đồng ý tham gia thử nghiệm, họ có nguy cơ gây nguy hiểm cho các tài xế cùng những người đi đường khác, những người chẳng hề thỏa thuận gì với Telsa. Forbes cho rằng Telsa đang lấy con người ra làm chuột bạch, và những thí nghiệm như vậy cần được một ủy ban đạo đức thông qua trước khi được tiến hành, điều mà hiển nhiên hãng xe của Elon Musk không hề thực hiện. Ngoài ra, vẫn theo Forbes, Telsa cũng phải chịu trách nhiệm nếu họ không báo trước cho các tài xế hết những mối nguy hiểm tiềm tàng trong công nghệ của mình. Ngay cả khuyến cáo buộc người dùng phải luôn chú ý dù xe đang lái tự động cũng được cho là phi thực tế, giống như “bắt những đứa trẻ phải ngồi yên trước đống kẹo mà không được mó tay vào”. Lựa chọn hi sinh Trang LiveScience ngày 1-7 đặt vấn đề về khía cạnh đạo đức của xe tự lái: khi xảy ra tai nạn nghiêm trọng, trí thông minh nhân tạo đang điều khiển chiếc xe phải lựa chọn nên cứu ai? The Huffington Post giả định: Bạn đang thong dong ngồi ở ghế sau của một chiếc xe tự lái trên xa lộ thì một đội cổ vũ băng qua đường. Với vận tốc 75 km/h, chiếc xe sẽ không thể thắng kịp và chỉ có hai lựa chọn: hoặc tông vào nhóm người đó, hoặc ngoặt sang phải để né họ - đồng nghĩa với việc xe sẽ lao thẳng vào rào chắn và bạn có thể thiệt mạng. Trong trường hợp này, trí thông minh nhân tạo đang vận hành chiếc xe phải xử trí thế nào khi chỉ có một tích tắc để đưa ra quyết định? Nếu tài xế là con người, nhiều khả năng họ sẽ chọn giữ tính mạng cho chính mình. Điều quan trọng là họ có thể sẽ không bị buộc tội dựa theo các quy tắc đạo đức hiện tại, bởi lỗi thuộc về người đi đường chứ không phải tài xế. Nhưng quy chuẩn đạo đức đó có áp dụng được cho máy móc hay không? Quan điểm của Forbes về “lựa chọn hi sinh” của xe tự lái cũng đồng nhất như với việc ai phải chịu trách nhiệm khi tai nạn xảy ra. “Trao cho người dùng quyền “cài đặt đạo đức” để xe phải lựa chọn ai trong những tình huống như vậy không nhất thiết đồng nghĩa với việc giải phóng nhà sản xuất khỏi các trách nhiệm, vì chính họ đã buộc khách hàng phải đưa ra lựa chọn khó khăn đó” - Forbes kết luận. ■ Tags: Xe tự hànhĐạo đức xe tự hành
NÓNG: Tổng thống Trump công bố Israel, Iran sẽ ngừng bắn toàn diện, lãnh đạo hai nước chưa xác nhận THANH HIỀN 24/06/2025 Ông Trump vừa công bố Israel và Iran đã nhất trí với nhau về một lệnh ngừng bắn toàn diện. Tuy nhiên quan chức Iran khẳng định 'vẫn tiếp tục chiến đấu'
Xung đột Israel - Iran ngày 24-6: Tehran nói chưa đồng ý ngừng bắn TRẦN PHƯƠNG 24/06/2025 Ngoại trưởng Iran khẳng định chưa có thỏa thuận ngừng bắn nào, nhưng Tehran sẽ dừng phản ứng quân sự nếu Israel ngưng tấn công.
5 cựu bí thư Tỉnh ủy hầu tòa vì nhận tiền từ cựu chủ tịch Tập đoàn Phúc Sơn THÂN HOÀNG 24/06/2025 Cựu bí thư Tỉnh ủy Vĩnh Phúc Hoàng Thị Thúy Lan bị tòa án đưa ra xét xử với cáo buộc nhận hối lộ 25 tỉ đồng và 1 triệu USD từ ông Nguyễn Văn Hậu để tạo điều kiện cho Tập đoàn Phúc Sơn thực hiện dự án.
Quân đội Thái Lan đóng cửa biên giới với Campuchia THANH HIỀN 24/06/2025 Ngày 23-6, Thái Lan đã ra lệnh đóng cửa các biên giới giữa nước này với Campuchia, chỉ cho phép các trường hợp nhân đạo qua lại.