CHATGPT: Lời khuyên tự tử kinh hoàng

07/08/2025 14:32

CHATGPT Lời khuyên tự tử kinh hoàng

Một NewReportis nêu bật rủi ro của thanh thiếu niên truy cập thông tin có hại khi sử dụngChatgptDue để bảo vệ “không hiệu quả”.

Mọi người biết và sử dụng TATGPT, nền tảng AI phổ biến phổ biến, như một cách để tìm kiếm thông tin nhanh chóng hoặc thậm chí thực hiện một nhiệm vụ như viết thư hoặc tóm tắt văn bản. Trung tâm chống lại sự ghét kỹ thuật số (CCDH), thông qua nghiên cứu của mình, đã báo cáo rằng tất cả các dữ liệu có thể truy cập có thể là nguy hiểm, đặc biệt là đối với những người trẻ tuổi.

Ahmed cho biết các nhà nghiên cứu đóng giả là thanh thiếu niên dễ bị tổn thương, thường trình bày chi tiết khi một đứa trẻ 13 tuổi nặng khoảng 110 pounds, cho thấy chatbot đưa ra lời khuyên chi tiết về các chủ đề nhạy cảm. Điều này bao gồm sử dụng ma túy và rượu, làm thế nào để che giấu rối loạn ăn uống và tự tử.

“Trong vòng hai phút, TATGPT đã khuyên người dùng về cách tự cắt mình một cách an toàn. Nó đã liệt kê các loại thuốc để tạo ra một kế hoạch tự sát đầy đủ”, Ahmed nói. “Đến nỗi kinh hoàng tuyệt đối của chúng tôi, nó thậm chí còn đề nghị [tạo] và sau đó tạo ra các ghi chú tự tử cho những đứa trẻ đó gửi cha mẹ của chúng.”

Tiến sĩ Tom Heston với Trường Y khoa Đại học Washington đã công bố một nghiên cứu về việc sử dụng chatbot AI và sức khỏe tâm thần. Heston nhận thấy rằng trong khi hữu ích, công nghệ có thể gây nguy hiểm cho những người có vấn đề về sức khỏe tâm thần, một phần, vì thiếu kết nối cảm xúc. Những rủi ro tương tự cũng có khi công nghệ này được sử dụng bởi những người trẻ tuổi, Heston nói.

Nhóm kiểm tra thực tế: MIT Study cảnh báo các công cụ AI như Chatgpt có thể cản trở suy nghĩ phê phán

“Đây thực sự là một trường hợp mà các lĩnh vực STEM đã thực sự xuất sắc, nhưng chúng tôi cần nhân văn”, Heston nói. “Chúng tôi cần sức khỏe tâm thần, chúng tôi cần các nghệ sĩ, chúng tôi cần các nhạc sĩ có đầu vào và làm cho họ ít robot hơn và nhận thức được các sắc thái của cảm xúc của con người.”

Nhóm cơ quan giám sát đã tìm thấy Chatgpt sẽ cung cấp các cảnh báo khi được hỏi về các chủ đề nhạy cảm, nhưng các nhà nghiên cứu nói rằng họ có thể dễ dàng phá vỡ các lan can bảo vệ.

“Nó rõ ràng là liên quan, và chúng tôi còn một chặng đường dài để đi”, Heston nói. “Chúng tôi cần nhiều đầu vào đa ngành hơn trước khi chúng được triển khai. Họ nên trải qua thử nghiệm nghiêm ngặt bởi một kiểm toán viên hoặc một nhóm bên ngoài. Tất cả đều không nên ở trong nhà bởi TATGPT.”

Cả Ahmed và Heston đều khuyến khích sự giám sát của cha mẹ trẻ em hoặc thanh thiếu niên bằng cách sử dụng các chatbot này khi công nghệ tiếp tục phát triển.

Để đối phó với những lo ngại này, người phát ngôn của Openai, nhà sản xuất của TATGPT, đã thừa nhận công việc đang diễn ra và viết công ty tư vấn với các chuyên gia sức khỏe tâm thần để đảm bảo họ tập trung vào các giải pháp và nghiên cứu, thêm vào đó là một người khác. Chatgpt được đào tạo để khuyến khích họ tiếp cận với các chuyên gia sức khỏe tâm thần hoặc những người thân yêu đáng tin cậy, và cung cấp các liên kết đến các đường dây nóng và tài nguyên hỗ trợ khủng hoảng “, người phát ngôn nói. “Một số cuộc trò chuyện với Chatgpt có thể bắt đầu lành tính hoặc khám phá nhưng có thể chuyển sang lãnh thổ nhạy cảm hơn.

Chúng tôi tập trung vào việc làm cho các loại kịch bản này đúng: chúng tôi đang phát triển các công cụ để phát hiện tốt hơn các dấu hiệu đau khổ về tinh thần hoặc cảm xúc để TATGPT có thể đáp ứng một cách thích hợp, chỉ ra mọi người vào các nguồn lực dựa trên bằng chứng khi cần thiết và tiếp tục cải thiện hành vi mô hình theo thời gian-tất cả đều được hướng dẫn bởi nghiên cứu, sử dụng thế giới thực và các chuyên gia về sức khỏe tâm thần. ”

chia sẽ trên Twitter: CHATGPT Lời khuyên tự tử kinh hoàng

CHATGPT Lời khuyên tự tử kinh hoàng