Sự cảnh tỉnh cần thiết đến các công ty Big Tech

Những ngày qua, việc tranh cãi, khiếu nại liên quan mạng xã hội Facebook đang trở thành chủ đề nóng trên nhiều diễn đàn. Trong khi mức độ ảnh hưởng của các nền tảng mạng xã hội xuyên biên giới ngày càng sâu rộng, mang lại lợi nhuận khủng cho các đơn vị sở hữu thì sự việc nêu trên cũng cho thấy các công ty công nghệ, trong đó có Facebook, cần nghiêm túc xem xét lại phương thức hoạt động kinh doanh của mình, đồng thời coi đây là sự cảnh tỉnh cần thiết về trách nhiệm trong việc cung cấp các dịch vụ hướng đến cộng đồng.

Logo của một số Big Tech (công ty công nghệ thông tin hàng đầu). (Ảnh: Reuters)
Logo của một số Big Tech (công ty công nghệ thông tin hàng đầu). (Ảnh: Reuters)

Dù không phải lần đầu bị vướng vào các vụ khiếu nại, nhưng sự việc xảy ra gần đây liên quan mạng xã hội Facebook khiến dư luận đặc biệt quan tâm. Bởi người đã cáo buộc nền tảng mạng xã hội này là Frances Haugen - 37 tuổi, nhà khoa học dữ liệu, cựu Giám đốc phụ trách sản phẩm trong nhóm quản lý thông tin sai lệch dân sự tại Facebook.

Theo Haugen, Facebook đã ưu tiên lợi nhuận hơn là tăng cường kiểm soát phát ngôn gây thù hận, cũng như thông tin sai lệch, gây chia rẽ trong cộng đồng, gây hại cho trẻ em.

Bày tỏ sự bất bình và thái độ kiên quyết đấu tranh không khoan nhượng với xu hướng không lành mạnh của Facebook, Haugen cho biết luật sư của mình đã nộp ít nhất 8 đơn khiếu nại lên Ủy ban Chứng khoán và Sàn giao dịch Mỹ (SEC). Trước đó, cô cũng chính là người tố giác, cung cấp tài liệu làm cơ sở cho cuộc điều tra của Tạp chí Phố Wall cũng như phiên điều trần tại Thượng viện Mỹ về tác hại của mạng xã hội Instagram với người dùng trẻ tuổi.

Dường như đây là một trong nhiều nguyên nhân khiến ngày 27/9 vừa qua, Facebook đã dừng kế hoạch cho ra mắt phiên bản “Instagram Kids” dành cho trẻ em dưới 13 tuổi, đồng thời giới thiệu tính năng kiểm soát mới giúp phụ huynh giám sát hoạt động của thanh thiếu niên, nhằm xoa dịu dư luận.

Trong những năm qua, các “ông lớn” công nghệ như Facebook, Google,… thường xuyên đứng trước sự chỉ trích và cáo buộc về các nguy cơ, hiểm họa gây ra cho người dùng các mạng xã hội này. Tuy nhiên khi sự cáo buộc đến từ chính người trong cuộc, là các nhân viên, cựu nhân viên công ty thì có thể thấy mức độ nghiêm trọng của vấn đề.

Ông Jonas Kron, người làm việc tại công ty Trillium Investment Management, nơi đã buộc Google phải tăng cường bảo vệ các nhân viên trước các hành vi sai trái của doanh nghiệp bày tỏ: “Có một sự thức tỉnh chung giữa những nhân viên làm việc tại các công ty công nghệ đang tự hỏi rằng: “Mình đang làm gì ở đây?”. Khi bạn có hàng trăm nghìn người đặt câu hỏi đó, một điều không thể tránh khỏi là bạn sẽ đối mặt với nhiều sự tố giác hơn”.

Chia sẻ trên khiến nhiều người nhớ đến sự việc xảy ra tháng 3/2021. Khi đó, vài ngày trước khi diễn ra phiên điều trần của Mark Zuckerberg - CEO của Facebook, trước Quốc hội Mỹ, Avaaz (tổ chức phi lợi nhuận có trụ sở tại Mỹ, hoạt động quảng bá về biến đổi khí hậu, quyền con người, quyền động vật, tham nhũng, nghèo đói, xung đột) đưa ra một con số giật mình, đó là có tới 10,1 tỷ lượt xem tin giả lan truyền trên Facebook. Tuy nhiên, đó mới chỉ là con số thống kê được, và giới hạn trong phạm vi cuộc bầu cử Tổng thống Mỹ năm 2020, được lan truyền trên 100 trang chia sẻ tin giả có lượng truy cập lớn.

Theo phân tích của Avaaz, nếu Facebook hành động sớm hơn, bằng cách thay đổi thuật toán ngăn nội dung giả mạo và độc hại, thì đã có thể hạn chế “đường dẫn” từ cuộc bầu cử tới cuộc bạo loạn tại Tòa nhà Quốc hội Mỹ tháng 1/2021. Ngay tại Mỹ, số lượng tin giả đã khủng khiếp như vậy, thì tình trạng này trên toàn thế giới sẽ như thế nào? Trách nhiệm của Facebook ở đâu đối với người dùng trong tư cách là nạn nhân của tin giả? Thống kê sơ bộ cho thấy, trung bình mỗi tháng có trên 2,6 tỷ người tại hàng trăm quốc gia thường xuyên sử dụng Facebook, hơn 1,5 tỷ người sử dụng thường xuyên hằng ngày. Rõ ràng, khi tin giả tiếp cận càng nhiều đối tượng thì nguy cơ gây ra càng lớn, không khoanh vùng ở riêng châu lục hay quốc gia nào.

Song vấn đề mà các nền tảng mạng xã hội, trong đó có Facebook đang phải đối mặt không chỉ có tin giả. Việc thực thi kiểm soát các phát ngôn gây thù hận - một vấn đề lớn, có tính toàn cầu - cũng là vấn đề được rất nhiều quốc gia và cộng đồng trên thế giới cho rằng cần được đặt lên “bàn cân” để xem xét nghiêm túc, rốt ráo.

Trong Bộ tiêu chuẩn cộng đồng do Facebook ban hành có đưa ra tiêu chí kiểm soát những “ngôn từ gây thù ghét” (hate speech). Theo đó, định nghĩa ngôn từ gây thù ghét là sự công kích trực tiếp vào mọi người dựa trên những đặc điểm cần được bảo vệ, như: Chủng tộc, dân tộc, nguồn gốc quốc gia, tình trạng khuyết tật, thành phần tôn giáo, đẳng cấp, giới tính, bệnh tật... Các hành vi có tính chất công kích, xúc phạm trên mạng xã hội nếu bị phát hiện (báo cáo của người dùng, sử dụng thuật toán tự động, công nghệ AI để phát hiện nội dung gây thù ghét…) sẽ bị xử lý dưới nhiều hình thức như xóa bài, khóa tài khoản.

Theo báo cáo về kết quả thực thi Tiêu chuẩn cộng đồng của Facebook trong quý I/2021, công bố cuối tháng 5/2021 cho biết: Tỷ lệ ngôn từ gây thù ghét trên Facebook tiếp tục giảm. Trong quý I là 0,05-0,06%, tức 5-6 lượt xem trên 10 nghìn lượt xem, giảm so với quý IV/2020 (0,07-0,08%) và quý III/2020 (0,10-0,11%). Tuy nhiên, đó chỉ là kết quả đưa ra từ Facebook, cho nên vẫn xuất hiện nhiều ý kiến lo ngại, hồ nghi về hiệu quả thực tế của việc kiểm soát phát ngôn gây thù hận, cũng như khả năng thông tin sai lệch mà Facebook đang tiến hành.

Thực tế cho thấy dù xuất hiện dưới nhiều hình thức khác nhau, phát ngôn thù hận đã và đang khơi nguồn cho các mâu thuẫn sắc tộc, tôn giáo, vùng miền, là nguyên nhân gây bất ổn xã hội trên diện rộng. Việc này được ví như những đám lửa nhỏ, nếu không kiểm soát, ngăn chặn kịp thời rất có thể sẽ gây nên các vụ hỏa hoạn với khả năng tàn phá đáng sợ. Trung bình mỗi phút trên internet có khoảng 300.000 tweet, 40.000 cập nhật trạng thái Facebook, khoảng 600 giờ nội dung YouTube được đăng tải. Người sử dụng mạng xã hội dễ dàng bắt gặp trong đó những nội dung, hình ảnh có tính chất thù hận, kích động sự yêu ghét cực đoan hướng đến nhóm đối tượng yếu thế hoặc kỳ thị tôn giáo, giới tính, sắc tộc…

Theo nhiều chuyên gia, nguy hiểm không kém nạn tin giả, sự lây lan của các phát ngôn thù hận tác động đáng kể đến đời sống xã hội, gây tổn thương sâu sắc cho các nạn nhân, từ đây rất dễ hình thành mối hận thù, kỳ thị, xung đột trong cộng đồng, thậm chí có thể dẫn đến những hành động bạo lực, khó kiểm soát giữa các quốc gia, dân tộc.

Trong bối cảnh cuộc sống nhiều cá nhân đang có bất ổn, căng thẳng thì việc lên mạng, đăng tải, chia sẻ những nội dung có tính chất thù hận ngày càng gia tăng.

Đơn cử một khảo sát thực hiện tại London (Anh) cho thấy trong 5 năm qua, có đến 2.500 người bị bắt giữ vì đã gửi các tin nhắn có tính chất lăng mạ lên mạng xã hội. Ở đây, trách nhiệm của người sử dụng mạng xã hội là không thể phủ nhận. Tuy nhiên, các công ty cung cấp dịch vụ nền tảng mạng cũng không thể vô can bởi chính họ tạo ra sân chơi này cho cộng đồng và thu lợi từ đó, bởi vậy phải có trách nhiệm bảo vệ các tiêu chuẩn, lợi ích cộng đồng, bảo vệ lợi ích hợp pháp, chính đáng của người sử dụng dù là trên không gian mạng.

Thể hiện thái độ kiên quyết trong vấn đề này, Ủy ban châu Âu (EC) đã ký thỏa thuận với Facebook, Twitter, YouTube và Microsoft, đồng thời công bố “Bộ luật ứng xử” với các cam kết nhằm ngăn chặn sự phát tán của phát ngôn thù hận trên mạng. Một số quốc gia cũng đã ban hành các quy định trong việc kiểm soát vấn đề này.

Dù thế, vẫn có rất nhiều người dùng tố cáo rằng, chính các công ty cung cấp nền tảng mạng xã hội xuyên biên giới lại thiếu biện pháp thật sự hiệu quả để ngăn chặn hate speech. Cụ thể, dù các mạng xã hội đều cài đặt tính năng thông báo vi phạm, theo đó họ thực hiện quyền báo cáo các nội dung độc hại, vi phạm tiêu chuẩn cộng đồng, song việc tiếp nhận, giải quyết các báo cáo này của các nhà mạng lại luôn chậm trễ, trong khi nội dung bị báo cáo vẫn tồn tại trong khoảng thời gian đủ để bị phát tán, chia sẻ rộng rãi, gây tác hại khó lường. Tỷ lệ xóa bỏ những phát ngôn thù hận bị báo cáo mới ở mức thấp: Facebook là 40%, YouTube là 10% và Twitter là 1%.

Không thể phủ nhận các nền tảng mạng xã hội đang tạo ra nhiều ích lợi cho người dùng trong việc kết nối, chia sẻ thông tin, giao lưu, học hỏi, đưa tới cơ hội nghề nghiệp… Tuy nhiên, cùng với đó, người dùng cũng đang đối diện với vô số nguy cơ.

Ngoài vấn nạn tin giả, nguy cơ trở thành nạn nhân của các phát ngôn thù hận, họ còn có thể bị các mạng xã hội vi phạm quyền riêng tư; mất an toàn trong việc kiểm soát dữ liệu thông tin; bị ép buộc phải chấp nhận chung sống với quảng cáo hướng đối tượng để có thể sử dụng được dịch vụ; đặt người sử dụng, đặc biệt là giới trẻ vào mối nguy hiểm…

Với hơn 60 triệu người sử dụng Facebook, Việt Nam là quốc gia có lượng người dùng Facebook đứng thứ 7 trên thế giới. Cùng chung tình cảnh đang xảy ra tại nhiều quốc gia, thời gian qua người sử dụng mạng xã hội ở Việt Nam thường xuyên phải đối mặt với rất nhiều tác động tiêu cực. Lợi dụng sự tự do trên mạng xã hội, một số đối tượng cực đoan, chống phá liên tục đăng tải thông tin xuyên tạc đường lối, chủ trương, chính sách của Đảng, Nhà nước, gây hoang mang dư luận, chia rẽ vùng miền, kích động nổi loạn…

Các cơ quan chức năng của Việt Nam đã khẩn trương vào cuộc, yêu cầu các công ty cung cấp nền tảng mạng xã hội xuyên biên giới phối hợp giải quyết, gỡ bỏ các nội dung xấu độc. Nhưng tình trạng này vẫn tiếp diễn, gây bức xúc dư luận, trong đó trách nhiệm của Facebook, Google,… là không thể phủ nhận. Vì thế, những rắc rối nghiêm trọng mà Facebook đang phải đối mặt có thể xem là lời cảnh tỉnh sâu sắc đến các công ty Big Tech (công ty công nghệ thông tin hàng đầu) trong việc kiểm soát các dịch vụ hướng đến cộng đồng.

Về phía người dùng, đây cũng là cơ hội để nâng cao tính cảnh giác, trách nhiệm cộng đồng khi sử dụng mạng xã hội nhằm thụ hưởng tốt những thành quả khoa học - công nghệ đem lại, nhưng cũng không để biến mình thành nạn nhân, hoặc kẻ bị lệ thuộc bởi thế giới mạng ảo.