Trợ giúp y tế từ ChatGPT tốt hơn con người, những lo ngại về việc phá vỡ mối liên hệ giữa người với người vẫn còn tiếp diễn

Theo một nghiên cứu mới, các câu trả lời của AI chatbox ChatGPT đối với các câu hỏi về y tế được chấm điểm cao hơn so với các phản hồi của con người. Tuy nhiên, các nhà nghiên cứu lo ngại rằng việc máy móc hóa các hoạt động như vậy có thể làm mất đi cảm giác được trợ giúp của con người.

Nghiên cứu này được công bố trên tập san JAMA Network vào hôm 28/04, trong đó các nhà nghiên cứu ngẫu nhiên chọn lựa 195 câu hỏi từ một diễn đàn sức khỏe trên mạng xã hội công khai mà một bác sĩ được xác minh đã trả lời. Phần mềm ChatGPT được cung cấp những câu hỏi này và AI đã tạo ra các câu trả lời của nó. Các nhà nghiên cứu đã gửi các câu hỏi ban đầu cũng như các câu trả lời được sắp xếp ngẫu nhiên từ người bác sĩ đó và ChatGPT cho một nhóm gồm ba chuyên gia sức khỏe được cấp phép. Ba chuyên gia này đã so sánh các câu trả lời dựa trên “chất lượng thông tin cung cấp” và “sự đồng cảm và ân cần đối với người bệnh.”

Ba chuyên gia sức khỏe thích các câu trả lời của ChatGPT hơn các phản hồi từ bác sĩ đến 78.6% trường hợp.

Theo một thông cáo báo chí vào hôm 28/04, cô Jessica Kelley, một học viên y tá của công ty Human Longevity ở San Diego và đồng tác giả của nghiên cứu, cho biết: “ChatGPT đã trả lời tin nhắn với các thông tin quan trọng và chính xác, thường giải quyết nhiều phương diện trong câu hỏi của bệnh nhân hơn so với các câu trả lời của người bác sĩ.”

Đánh giá “tốt” và “rất tốt” đối với các câu trả lời của ChatGPT nhiều hơn 3.6 lần các phản hồi của bác sĩ. Phản hồi của Chatbot cũng nhận được đánh giá “đồng cảm” hoặc “rất đồng cảm” nhiều hơn gấp 9.8 lần.

Trong một cuộc phỏng vấn với Fox, Tiến sĩ John W. Ayers, phó giám đốc đổi mới của Khoa Truyền nhiễm và Sức khỏe Cộng đồng Toàn cầu tại Đại học California San Diego và là tác giả của nghiên cứu, đã nêu lên mối lo ngại rằng nhận thức của mọi người về các phản hồi trợ giúp y tế có thể thay đổi nếu họ biết được các tin nhắn được tạo ra thông qua AI.

Ông Ayers đã trích dẫn một nghiên cứu về hỗ trợ sức khỏe tinh thần cho thấy các tin nhắn AI được mọi người yêu thích hơn so với các câu trả lời từ con người. “Thú vị là, khi tiết lộ các tin nhắn là do AI viết, thì những người nhận không còn cảm nhận được sự trợ giúp từ tin nhắn nữa.”

“Tôi lo là trong tương lai, mọi người sẽ không cảm nhận được bất kỳ sự trợ giúp nào thông qua tin nhắn, vì bệnh nhân có thể cho rằng tin nhắn là do AI viết.”

Hạn chế của nghiên cứu, nguy cơ không được chẩn đoán với AI

Hạn chế chính của nghiên cứu là việc sử dụng hình thức trao đổi câu hỏi và trả lời trực tuyến. Nghiên cứu thừa nhận những tin nhắn như vậy có thể không phản ánh [hình thức trao đổi] câu hỏi điển hình giữa bệnh nhân và bác sĩ.

“Chúng tôi chỉ nghiên cứu riêng về việc trả lời các câu hỏi mà không cân nhắc các yếu tố khác, trong khi thực tế các bác sĩ có thể đưa ra các câu trả lời dựa trên mối quan hệ đã thành lập giữa bệnh nhân và bác sĩ.”

“Chúng tôi không biết các bác sĩ lâm sàng đã kết hợp yếu tố mối quan hệ của mình với bệnh nhân trong câu trả lời ở mức độ nào, cũng như chưa đánh giá khả năng của chatbot trong việc cung cấp các chi tiết được trích dẫn từ hồ sơ sức khỏe điện tử.”

Trong một bài báo được đăng trên Medium vào hôm 05/04, Tiến sĩ Josh Tamayo-Sarver đã tiết lộ những vấn đề mà ông phát hiện khi dùng ChatGPT để chẩn đoán cho bệnh nhân của mình. Ông viết, “Các kết quả thật thú vị, nhưng cũng tương đối đáng lo ngại.”

Chỉ cần tài liệu được cung cấp cho ChatGPT là chính xác và chi tiết, bot này sẽ làm tốt việc định ra các chẩn đoán phổ biến. Đối với gần một nửa bệnh nhân, ChatGPT sẽ đề xuất 6 chẩn đoán có khả năng. Chẩn đoán đúng của bệnh nhân là một trong sáu chẩn đoán do bot đưa ra.

Tuy nhiên, ông Josh nói, “tỷ lệ thành công 50% trong tình huống ở phòng cấp cứu cũng không tốt.” Trong một trường hợp, ChatGPT đã bỏ sót chẩn đoán về một bệnh nhân nữ 21 tuổi mang thai ngoài tử cung, là tình trạng thai nhi phát triển trong ống dẫn trứng của phụ nữ thay vì trong tử cung. Nếu chẩn đoán muộn, tình trạng này có thể dẫn đến tử vong.

“Tôi lo sợ rằng nhiều người đã dùng ChatGPT để tự chẩn đoán y tế cho bản thân thay vì đến gặp bác sĩ. Nếu bệnh nhân của tôi ở trong trường hợp này đã làm như vậy, phản hồi của ChatGPT có thể giết chết họ,” ông Josh viết.

Vân Hi biên dịch

Quý vị tham khảo bản gốc từ The Epoch Times

Naveen Athrappully
BTV Epoch Times Tiếng Anh
Anh Naveen Athrappully là một phóng viên tin tức đưa tin về các sự kiện kinh doanh và thế giới cho The Epoch Times.
Chia sẻ bài viết này tới bạn bè của bạn