Thứ Năm, ngày 18/10/2018 01:39 AM (GMT+7)

Facebook: “Bạo lực, lạm dụng trẻ em? OK hết!”

authorTiểu Đào Thứ Năm, ngày 11/10/2018 19:30 PM (GMT+7)

(Dân Việt) Không thể phủ nhận, Facebook đang là nền tảng mạng xã hội lớn nhất thế giới và đang có ảnh hưởng sâu rộng trong đời sống hiện đại. Tuy nhiên, quy mô khổng lồ đã dẫn tới một hệ lụy nguy hiểm mà chính Facebook đôi khi không thể kiểm soát nổi: Nội dung xấu.

   

Các con số khổng lồ

Từ khi được Mark Zuckerberg thành lập vào năm 2004, mạng xã hội Facebook đã trở thành cơn sốt, thu hút hàng tỷ người dùng trực tuyến. Ảnh: CLNS.

Theo Zephoria, tính thời điểm hiện tại, Facebook đang có hơn 1,47 tỷ người dùng (user) hoạt động hàng ngày và hơn 2 tỷ người dùng hoạt động hàng tháng. Tốc độ phát triển của mạng xã hội này rất nhanh khi cứ mỗi 1 giây lại có 5 hồ sơ (profile) được tạo dựng.

Theo thống kê, người dùng Facebook xem 100 triệu giờ video, chia sẻ 300 triệu bức ảnh, 4,75 tỷ nội dung và bấm vào đường dẫn của 10 triệu trang điện tử mỗi ngày thông qua các nút Like (thích) và Share (chia sẻ). Cứ mỗi 60 giây, có 510.000 bình luận được đăng tải, 293.000 trạng thái được cập nhật và 136.000 bức ảnh được tải lên.

Tính trung bình, người dùng dành 35 phút mỗi ngày để theo dõi các nội dung trên Facebook. Thậm chí, 50% người dùng trong khoảng độ tuổi 19-24 ngủ dậy là phải vào ngay Facebook.

 facebook: “bao luc, lam dung tre em? ok het!” hinh anh 1

Không chỉ giới trẻ, nhiều người lớn tuổi cũng kịp "phổ cập" - hay nói một cách dân dã là "chơi" Facebook. Ảnh: Alamy.

Có nhiều người dùng là vậy, thế nhưng tính đến ngày 30.6.2018, công ty chỉ có 30.275 nhân viên toàn thời gian (theo số liệu của Facebook), tính cả các quản trị viên nội dung – người xác định xem những nội dung nào được đăng trên Facebook và những nội dung nào không được phép tồn tài. So với lượng nội dung được tạo ra và chia sẻ mỗi ngày, con số quản trị viên khá là ít ỏi.

 facebook: “bao luc, lam dung tre em? ok het!” hinh anh 2

Nếu phát hiện một nội dung xấu, người dùng hoàn toàn có thể báo cáo cho các quản trị viên Facebook. Ảnh: Quora.

Hiểu được hạn chế này, song song với các công cụ tự nhận diện nội dung xấu – các nội dung bạo lực, lạm dụng, thù ghét, cổ xúy hành vi xấu, vi phạm pháp luật,…, Facebook còn tạo ra tính năng Báo cáo (Report) nhằm khuyến khích người dùng tố cáo các nội dung được cho là đã vi phạm quy tắc, chính sách của mạng xã hội. Sau đó, các tố cáo (ticket) sẽ được chuyển về quản trị viên nội dung, xếp hàng chờ để được xử lý.

Tuy nhiên, giải pháp này lại có những mặt tối để lại hệ lụy nghiêm trọng, gây ảnh hưởng cho người dùng mà đặc biệt là những người dùng trẻ.

Facebook OK với nội dung… hơi xấu?

Trong một phóng sự điều tra, đài Al Jazeera (Qatar) đã phát hiện ra một sự thật mà chỉ những người làm bên trong Facebook mới biết: các nội dung xấu không phải lúc nào cũng bị xóa, gỡ bỏ và dường như mạng xã hội đặt lợi nhuận lên trên sự an toàn của người dùng.

Một video có nội dung bạo lực đẫm máu nhưng vẫn được Facebook giữ lại và đánh dấu nhạy cảm để người dùng tự cân nhắc. Ảnh chụp màn hình.

Theo đó, Facebook thường xuyên giữ nguyên các hình ảnh nhạy cảm, máu me hay mang tính bạo lực, lạm dụng. Biện minh cho hành động này, các quản trị viên của Facebook cho rằng, dù đã có nhiều tố cáo về nội dung xấu, những nội dung được cho là xấu nói trên không mang tính cổ xúy hành vi bạo lực, lạm dụng. Nói cách khác, nếu hình ảnh và video bạo lực được đăng tải, sử dụng với mục đích chỉ trích, phản đối hay nâng cao nhận thức về một vấn đề xấu, Facebook sẽ không gỡ bỏ mà sẽ chỉ đánh dấu nhạy cảm để người dùng tự cân nhắc trước khi xem.

“Nếu chúng ta bắt đầu kiểm duyệt quá mức, người dùng sẽ không còn ưa thích nền tảng nữa. Cuối cùng, mục tiêu vẫn là kiếm tiền” - một quản trị viên Facebook nói với phóng viên Al Jazeera đóng vai thực tập sinh.

Trong đoạn video này, một người cha dượng ở Malaysia đã tát, đánh đập con riêng của vợ một cách tàn nhẫn. Dù rõ ràng mang nội dung lạm dụng, bạo lực trẻ em, Facebook vẫn giữ nguyên đoạn video và chỉ đánh dấu nhạy cảm. Thậm chí, theo Al Jazeera, đoạn video còn được sử dụng để tập huấn cho các quản trị viên nội dung mới. Video: Al Jazeera.

Ngoài ra, nếu có nhiều người theo dõi và tương tác cao, một trang (page) dù có nội dung tuyên truyền phân biệt, thù ghét cũng sẽ được Facebook che chắn và bảo vệ với lý do tự do ngôn luận. Theo Al Jazeera, một những ví dụ điển hình nhất của việc này là trang Facebook “Britain First” (Nước Anh là trên hết). Đây vốn là một trang theo chủ nghĩa cực hữu với quan điểm chống người nhập cư. Được biết, chỉ sau khi bị đánh dấu vi phạm tới 8-9 lần – cao hơn nhiều so với quy định chung là 5 lần, “Britain First” mới bị gỡ bỏ theo quyết định từ các cấp cao nhất ở Facebook. Lý do là trang này có nhiều người theo dõi, tạo ra nhiều lợi nhuận quảng cáo cho mạng xã hội.

Đây là một video khác mà các quản trị viên nội dung của Facebook quyết định bỏ qua và đánh dấu nhạy cảm. Trong đoạn video, một người đàn ông được cho là người Trung Quốc ăn những con chuột con còn sống. Lý do được quản trị viên đưa ra là dựa trên hình ảnh bát nước chấm và các miếng cà chua được bày trên đĩa, đoạn video được xét vào mục "ăn uống" nên không hề vi phạm chính sách, quy định của Facebook. Video: Al Jazeera.

“Những nội dung cực đoann, nguy hiểm lại thu hút những người có thói quen tương tác tích cực nhất trên Facebook. Họ hiểu rằng những người cực đoan là các ‘mỏ vàng’ bởi một người, dù theo chủ nghĩa cực hữu hay cực tả, có thể lôi kéo, kích động 50-100 người khác nên Facebook muốn có nhiều nội dung cực đoan nhất có thể” - ông Roger McNamee, cựu cố vấn cho CEO Mark Zuckerberg, giải thích với Al Jazeera rằng quảng cáo là nguồn thu nhập chính của Facebook.

“Theo quan điểm của Facebook, nội dung bạo lực, nhạy cảm chính là thứ thuốc phiện với người dùng”.

Xem bình luận

TIN ĐỌC NHIỀU

Phần thân của máy bay MH370 với dòng chữ in rõ Malaysia Airlines...
Mỹ đang thua dần trong cuộc chiến thương mại với Trung Quốc: sự...
Truyền thông Nga, Syria đưa tin, Mỹ và Israel đã bí mật cử các đội...