Sarah là nạn nhân của bạo lực gia đình. Cô đang gọi điện cầu cứu tổng đài khẩn cấp 999. Sarah hoảng loạn và sợ hãi vì chồng cũ đang tìm mọi cách để đột nhập vào nhà cô.
Khi cô đang nói chuyện với một nhân viên cảnh sát, cuộc gọi ngay lập được phiên âm bởi một hệ thống sử dụng trí tuệ nhân tạo (AI). Điều đáng nói là hệ thống này được kết nối trực tiếp với cơ sở dữ liệu của cảnh sát Anh. Khi Sarah nói tên và ngày sinh của chồng, AI nhanh chóng truy xuất thông tin của anh ta. Dữ liệu hiển thị rằng người đàn ông có giấy phép sử dụng súng. Điều này có nghĩa là cảnh sát cần đến nhà Sarah càng sớm càng tốt.
Đây là kết quả từ một bài kiểm tra mô phỏng để thử nghiệm phần mềm gọi khẩn cấp AI của cảnh sát Humberside vào năm 2023.
AI này được cung cấp bởi công ty khởi nghiệp Untrite AI (Anh). Công ty chuyên thiết kế phần mềm để xử lý hàng nghìn cuộc gọi khẩn cấp mà cảnh sát nhận được mỗi ngày. Untrite đã sử dụng dữ liệu từ hàng trăm cuộc gọi về bạo lực gia đình trong suốt hai năm để đào tạo AI đã phiên âm lại cuộc gọi của Sarah.
Kamila Hankiewicz, CEO Untrite nói: "Mô hình AI phân tích thông tin, bản ghi và âm thanh của cuộc gọi để đưa ra điểm phân loại: Thấp, trung bình, cao. Nếu điểm cuộc gọi ở ngưỡng cao thì cảnh sát tại hiện trường trong vòng 5 hoặc 10 phút".
Untrite cho biết, cuộc thử nghiệm cho thấy phần mềm có thể tiết kiệm 1/3 thời gian cho các điều hành viên, cả trong và sau mỗi cuộc gọi.
Corti và Carbyne (Mỹ) là hai công ty công nghệ khác cũng đang cung cấp hệ thống phần mềm cuộc gọi khẩn cấp dựa trên AI.
AI có tiềm năng thay đổi cách cảnh sát điều tra và giải quyết tội phạm. Mô hình này có thể nhận diện hành vi; phát hiện mối liên kết giữa các bằng chứng; sàng lọc lượng dữ liệu khổng lồ.
AI có khả năng so sánh dữ liệu khuôn mặt được cung cấp trực tiếp từ camera để đối chiếu với danh sách tội phạm đang bị theo dõi. (Ảnh: Getty Images) |
AI nhận diện sai khuôn mặt nghi phạm do sắc tộc
Tuy nhiên, công chúng đã chứng kiến không ít sai lầm khi cơ quan thực thi pháp luật sử dụng công nghệ này. Trong năm 2023, hàng loạt báo cáo tại Mỹ đã chỉ ra rằng phần mềm nhận dạng khuôn mặt dựa trên AI không phân biệt được khuôn mặt người da đen.
Một số thành phố ở Mỹ như San Francisco và Seattle, đã cấm sử dụng công nghệ này. Tuy nhiên, các lực lượng cảnh sát ở cả hai bên Đại Tây Dương lại sử dụng AI ngày càng nhiều.
Ông Albert Cahn, Giám đốc điều hành của Nhóm vận động chống Dự án Giám sát Công nghệ Giám sát (Stop) của Mỹ đặc biệt không hài lòng với sự phát triển này.
"Đó là một khoản đầu tư khổng lồ vào nhận dạng khuôn mặt bất chấp bằng chứng về việc AI nhận diện sai các cá nhân da đen, Latin và châu Á, đặc biệt là phụ nữ da đen" - ông nói.
Công nghệ nhận diện khuôn mặt bằng AI có thể được sử dụng theo ba cách chính:
Thứ nhất, nhận dạng khuôn mặt trực tiếp: So sánh dữ liệu khuôn mặt được cung cấp trực tiếp từ camera để đối chiếu với danh sách tội phạm đang bị theo dõi.
Thứ hai, nhận dạng khuôn mặt hồi tố: So sánh hình ảnh tĩnh của khuôn mặt với cơ sở dữ liệu hình ảnh.
Thứ ba, nhận dạng khuôn mặt do người vận hành khởi tạo: Cảnh sát chụp ảnh nghi phạm và gửi ảnh đó để tìm kiếm dựa trong cơ sở dữ liệu hình ảnh có sẵn.
Tháng 10/2023, ông Chris Philp, Bộ trưởng Cảnh sát Anh tuyên bố lực lượng cảnh sát Anh nên tăng gấp đôi số lượng tìm kiếm khuôn mặt sử dụng công nghệ AI nhận dạng hồi tố trong năm tới.
Cùng thời điểm, Phòng thí nghiệm Vật lý Quốc gia (NPL) của Anh đã tiến hành kiểm tra độc lập ba loại công nghệ nhận dạng khuôn mặt. NPL kết luận rằng mức độ chính xác đã cải thiện đáng kể trong các phiên bản mới nhất. Cả ba loại công nghệ đều được sử dụng bởi cảnh sát Metropolitan và South Wales.
Tuy nhiên, báo cáo cũng lưu ý rằng, trong một số trường hợp, phần mềm vẫn đưa ra nhận dạng giả với khuôn mặt người da đen.
Trước tình hình phức tạp, Cảnh sát West Midlands đã tiến xa hơn một bước: Tự thành lập ủy ban đạo đức để đánh giá các công cụ sử dụng công nghệ mới. Ủy ban này tập hợp nhiều nhà khoa học dữ liệu và do Giáo sư Marion Oswald, giáo sư luật tại Đại học Northumbria làm Chủ tịch.
Bà nói "Chúng tôi sẽ khuyến nghị rằng cần phải phân tích nhiều hơn nữa về tính hợp lệ của phần mềm nhận diện khuôn mặt tội phạm bằng AI".
Dữ liệu mới là yếu tố quyết đến tính chính xác của các kết quả do AI phân tích. Ảnh: Getty Image |
Dự đoán tội phạm từ khối dữ liệu chưa hoàn chỉnh
Phòng ngừa tội phạm là một lĩnh vực quan trọng khác mà AI có thể phát huy. Cụ thể, AI có khả năng dự đoán ai có thể phạm tội và tội phạm có thể xảy ra ở đâu?
Một nhóm nghiên cứu tại Đại học Chicago tuyên bố thuật toán của họ có thể dự đoán tội phạm trước một tuần với độ chính xác 90%.
Điều này khiến nhiều người liên tưởng tới bộ phim khoa học viễn tưởng kinh dị năm 2002: Minority Report. Sau 20 năm ý tưởng này đã không còn chỉ là giấc mơ của Hollywood nữa.
Tuy nhiên dữ liệu mới là yếu tố quyết đến tính hiệu quả của hệ thống AI. Ông Cahn - Giám đốc điều hành của Nhóm vận động chống Dự án Giám sát Công nghệ Giám sát (Mỹ) nhấn mạnh "cội nguồn tội lỗi" của hoạt động dự đoán là "dữ liệu lịch sử thiếu khách quan".
Ông nói: "Chúng tôi thấy rất nhiều công cụ dự đoán tội phạm được triển khai thô sơ nhưng lại cố gắng dự đoán một việc rất phức tạp: Nơi tội phạm sẽ xảy ra trong tương lai. Việc này thường gây ra hậu quả thảm khốc".
“Tai hại” - ông nói thêm: "Hoa Kỳ có dữ liệu tội phạm tệ khét tiếng".
Giáo sư Oswald đồng ý rằng việc sử dụng AI để dự đoán tội phạm gây ra nhiều lo ngại. Bà nói: "Bạn không thực sự dự đoán được tội phạm, bạn chỉ dự đoán được khả năng bị bắt giữ".
"Vấn đề là bạn đang so sánh một người vô tội với những người đã phạm tội tương tự trong quá khứ dựa trên một tập hợp thông tin rất hạn chế. Bạn không biết đủ những điều khác trong cuộc sống của một ai đó để đưa ra quyết định về khả năng phạm tội của họ" - Giáo sư Oswald kết luận.