GIG HARBOR, Washington – Lưu ý: Bài viết sau chứa mô tả về tự làm tổn thương. Nếu bạn hoặc ai đó bạn biết đang gặp khủng hoảng, hỗ trợ có sẵn. Gọi hoặc nhắn tin 988, hoặc trò chuyện tại 988lifeline.org. Truy cập trang Safe Space của Vibrant Emotional Health để tìm tài nguyên kỹ thuật số.
Ông và bà Colby, Leslie Taylor – cha mẹ của cậu bé 13 tuổi Jay Taylor, người đã tự tử – đang kiện nền tảng Discord, cáo buộc công ty này đã tạo điều kiện cho một mạng lưới trực tuyến bạo lực khiến con trai họ bị ép buộc tự tử. Đơn kiện được nộp tại Tòa án Tỉnh Pierce vào ngày 19/2.
Theo đơn kiện, Discord đã để nhóm được gọi là ‘764’ hoạt động trên nền tảng dù có dấu hiệu cảnh báo và báo cáo về bạo lực. Mạng lưới này được mô tả là nhắm vào trẻ em dễ tổn thương, ép buộc họ tham gia bóc lột tình dục, tự làm tổn thương và tự tử.
Jay Taylor, một học sinh xuất sắc môn Toán và Khoa học, từng đăng bài tìm kiếm bạn pen pal vào ngày 17/1/2022. Tin nhắn của anh cho thấy anh đang cố gắng vượt qua trầm cảm: ‘Tôi đột ngột muốn có một người bạn pen pal, vì vậy tôi ở đây!’ Anh từng mua một con ‘axolotl 3D khổng lồ’ cho cha và mơ ước trở thành bác sĩ thú y.
Theo đơn kiện, Jay đã kết nối với một cô bé 12 tuổi tên L.S. – người từng bị lạm dụng bởi lãnh đạo nhóm 764 gọi là ‘White Tiger’. Dưới áp lực từ lãnh đạo này, L.S. đã thuyết phục Jay tham gia thỏa thuận tự tử. Dù ban đầu kháng cự, Jay cuối cùng đã đồng ý treo cổ và đi bộ đến cửa hàng Safeway vào ban đêm.
Các thành viên mạng lưới 764 đã xem livestream hành động này. Jay được tìm thấy treo cổ bên ngoài cửa hàng. Cha mẹ anh cho rằng Discord đã biết về các hành vi lạm dụng nhiều tháng trước cái chết của con. Đơn kiện đề cập đến các báo cáo từ CyberTipline và yêu cầu công ty này phải loại bỏ nhóm 764, bổ sung nhân sự và triển khai biện pháp bảo vệ trẻ em.
chia sẽ trên Twitter: Tuyên cáo từ quận Pierce Discord bị cáo buộc bỏ qua cảnh báo trước khi cậu thiếu niên livestream tự


