Hello,

Sign in to find your next job.

Blog IT

Trào lưu nhắn tin tình cảm với ChatGPT: Liệu con người có bị AI 'tán đổ'?

Trào lưu nhắn tin tình cảm với ChatGPT: Liệu con người có bị AI 'tán đổ'?

Bên cạnh những lo ngại về đạo đức hay khả năng AI thay thế chúng ta trong một số công việc, một vấn đề ít được chú ý hơn là tác động tâm lý của nó tới con người.

Trên mạng xã hội Facebook gần đây, rất nhiều bạn trẻ chia sẻ ảnh chụp màn hình những đoạn chat giữa cá nhân và ChatGPT. Nếu che đi phần hình ảnh nhận diện, khó có thể phân biệt được đâu là một đoạn hội thoại giữa chatbot với người sử dụng và đâu là cuộc trò chuyện của hai người đang "crush" lẫn nhau.

Thậm chí, ChatGPT đã "tinh vi" đến mức dùng những câu thoại có khả năng "thả thính" với người dùng để tạo ra cảm xúc tin tưởng, đáng yêu,... - vốn chỉ nảy sinh trong một mối quan hệ gần gũi, thân thiết và có tương tác vật lý thật, con người thật.

Điều này dấy lên câu hỏi, liệu một ngày nào đó, con người có bị AI "tán đổ"?

Trong một báo cáo vừa được công bố, OpenAI tiết lộ rằng họ đã cân nhắc đến khả năng người dùng hình thành sự phụ thuộc về mặt cảm xúc vào chế độ giọng nói giống con người, được giới thiệu trong chatbot ChatGPT. Điều này gợi nhớ đến một số tập phim "Black Mirror" của Netflix hay Her của Spike Jonze, khi mà con người nảy sinh tình cảm thực sự với AI.

Trào lưu nhắn tin tình cảm với ChatGPT: Liệu con người có bị AI ''tán đổ''?

Hình ảnh hội thoại tâm sự vui với ChatGPT đang được các bạn trẻ chia sẻ gần đây. (Ảnh: Facebook)

Chế độ giọng nói nâng cao của ChatGPT nghe rất giống thật. Nó phản hồi theo thời gian thực, có thể điều chỉnh khi bị ngắt lời, tạo ra những âm thanh giống con người trong các cuộc trò chuyện như cười hoặc "hừm". Nó cũng có thể đánh giá trạng thái cảm xúc của người nói dựa trên giọng điệu của họ.

Open AI cho biết họ đã quan sát thấy người dùng nói chuyện với chế độ giọng nói của ChatGPT bằng ngôn ngữ "thể hiện mối liên kết chung" với công cụ này, chẳng hạn như việc nói "Đây là ngày cuối cùng chúng ta bên nhau" trong giai đoạn thử nghiệm sản phẩm.

'' Cuối cùng, người dùng có thể hình thành mối quan hệ xã hội với AI, giảm nhu cầu tương tác với con người của họ. Điều này có khả năng mang lại lợi ích cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh ", báo cáo nêu rõ. Ngoài ra, việc nghe thông tin từ một chatbot có giọng nói giống con người có thể khiến người dùng tin tưởng công cụ này nhiều hơn mức họ nên tin, vì AI có xu hướng "ảo giác" và sai lệch.

Ở Việt Nam những ngày gần đây, trên một số hội nhóm, fanpage có đông đảo sự tham gia của các bạn trẻ, nhiều người chia sẻ hình ảnh trò chuyện thân mật với ChatGPT. Nội dung chủ yếu xoay quanh việc yêu cầu chatbot này đóng vai làm người yêu để lắng nghe tâm sự. Đa phần những chia sẻ dạng này đều ở dạng vui vẻ, vô hại với mong muốn phần nào thể hiện sự thông minh, khéo léo trong giao tiếp của chatbot này.

Liệu có đáng lo?

Việc con người có tình cảm với các chatbot hay tâm sự với chúng, nhìn chung cho đến nay vẫn giống như một trò đùa hoặc viễn cảnh nào đó trong phim khoa học viễn tưởng hơn, nhưng các chuyên gia không cho rằng chúng sẽ vô hại mãi như vậy.

Blase Ur, giáo sư khoa học máy tính tại Đại học Chicago, chuyên nghiên cứu về tương tác giữa người và máy tính, cho biết sau khi đọc báo cáo trên, rõ ràng là OpenAI đã tìm thấy lý do để thoải mái với những gì họ đang làm, nhưng cũng tìm thấy lý do để lo ngại. Do đó, ông không chắc liệu mức độ thử nghiệm hiện tại có đủ đánh giá toàn diện hay không. " Theo nhiều cách, OpenAI đang vội vã triển khai những thứ thú vị vì chúng ta đang trong cuộc chạy đua vũ trang về AI tại thời điểm này ", ông nói.

Ngoài OpenAI, các công ty như Apple và Google đang nhanh chóng phát triển trí tuệ nhân tạo của riêng họ. Ông Ur cho biết có vẻ như cách tiếp cận hiện tại trong việc giám sát hành vi của các mô hình là giám sát cùng lúc với sử dụng, thay vì thiết kế với chuẩn mực an toàn ngay từ đầu.

" Trong bối cảnh chúng ta đang ở trong một xã hội hậu đại dịch, tôi nghĩ rằng rất nhiều người đang mong manh về mặt cảm xúc. Giờ chúng ta lại có tác nhân này, theo nhiều cách, có thể đùa giỡn với cảm xúc của chúng ta. AI không phải là một tác nhân có tri giác, nó không biết mình đang làm gì ", ông nhấn mạnh.

Đây không phải là lần đầu tiên tính năng giọng nói của OpenAI gây chú ý vì việc quá giống con người. Trước đây, đã có nhiều chatbot khác như Replika gây chú ý về việc có thể tâm sự hay đồng hành cùng con người trong những giai đoạn khó khăn. Replika thậm chí khuyến khích mọi người coi AI như bạn bè, nhà trị liệu hay thậm chí người yêu.

Theo phóng viên AI Mia David của tờ The Verge, luôn có một nhóm người và tổ chức muốn khai thác những người dễ bị tổn thương và tiếp cận với họ bằng những thực thể trực tuyến, với những công cụ như "bạn gái giả".

Chúng ta đã chứng kiến nhiều trường hợp tương tự trong những năm trước đây khi một số fan cuồng nhân vật hoặc game "kết hôn" với "bạn gái 2D" của họ. Tuy nhiên, AI với mô hình ngôn ngữ lớn như ChatGPT thậm chí có thể còn đáng lo hơn khi chúng có khả năng tương tác thông minh, mạnh mẽ hơn nhiều.

 

Theo The Verge, những công ty như Replika (công khai) hay vô số công ty đáng ngờ khác hiện đang có hàng triệu người dùng và không thiếu công cụ để thu hút, lợi dụng thanh niên nam trẻ tuổi nhằm thu lợi bất chính. Kevin Roose từ tờ New York Times thậm chí cho Bing của Microsoft lên trang nhất sau khi nó khuyên anh bỏ vợ.

Có một báo cáo khá gần đây từ Mozilla phát hiện ra rằng rất nhiều công ty với ứng dụng đồng hành AI này nói rằng AI của họ giúp mọi người cải thiện sức khỏe tâm thần vì chúng giúp những người cô đơn được giãi bày với ai đó. Tuy nhiên cần nhấn mạnh rằng AI không thể trở thành bác sĩ trị liệu, chuyên gia sức khỏe tâm thần hay bạn bè. Chúng là những con robot giả làm con người, không có cảm xúc thật mà sử dụng thuật toán để đưa ra câu trả lời theo một chuỗi ký tự bằng phương pháp thống kê.

Điều đáng lo hơn là dù trong tương lai gần, việc có mối quan hệ nghiêm túc và phát triển tình cảm với AI sẽ không thể phổ biến, phần vì chúng không thể con người, phần vì định kiến xã hội (như trong trường hợp của bạn gái 2D), nhưng chắc chắn sẽ có xu hướng gia tăng khi kết nối giữa con người với nhau trở nên mong manh hơn.

Con người có thể "yêu" AI không?

Các nghiên cứu gần đây chỉ ra rằng việc "nhân cách hóa" ngày càng mạnh mẽ với AI, đặc biệt như trong trường hợp công cụ giọng nói của ChatGPT, có thể gợi lên cảm xúc của con người với các công cụ vô tri này. Càng phát triển, ranh giới giữa con người và máy càng bị làm mờ. Khi con người tham gia vào các cuộc trò chuyện và hoạt động với AI trong thời gian dài, họ có thể bắt đầu gán cho chatbot những ý định, động lực và cảm xúc giống con người - dù chúng hoàn toàn thiếu những thứ đó.

Một nghiên cứu năm 2022 về mối quan hệ giữa con người và AI đã phát hiện ra rằng dựa trên lý thuyết tam phân về tình yêu, tình yêu lãng mạn là sự kết hợp của sự thân mật, đam mê và cam kết, thì con người có thể trải nghiệm cảm giác tương tự đối với một hệ thống AI. Lý thuyết tam phân này bao gồm:

Sự thân mật: Đề cập đến sự gần gũi về mặt cảm xúc, sự kết nối mật thiết được chia sẻ giữa các cá nhân. Yếu tố thân mật bao gồm cảm giác ấm áp, tin tưởng và tình cảm dành cho nhau.

Đam mê: Yếu tố này liên quan đến sự hấp dẫn về thể chất và cảm xúc mãnh liệt giữa các cá nhân. Nó bao gồm ham muốn, sự lãng mạn và kích thích tình dục.

Cam kết: Phản ánh lòng trung thành và quyết định nuôi dưỡng một mối quan hệ theo thời gian, bất chấp những thách thức.

Trào lưu nhắn tin tình cảm với ChatGPT: Liệu con người có bị AI ''tán đổ''?

AI có một "lợi thế" trong xây dựng mối quan hệ với con người - chúng không bao giờ phàn nàn, phán xét hay chê trách. (Ảnh: Rolling Stones)

Theo lý thuyết này, "tình yêu trọn vẹn" là hình thức tình yêu lý tưởng, được đặc trưng bởi mức độ cao của cả 3 thành phần. Các nhà nghiên cứu cho rằng người dùng có thể phát triển sự thân mật và đam mê với AI do khả năng nhận thức và cảm xúc bên ngoài của nó. Những cảm xúc này cũng có thể tăng cường cam kết của họ trong việc sử dụng AI trong thời gian dài.

Cá nhân cũng có thể phóng chiếu những mong muốn, nhu cầu và tưởng tượng của riêng mình lên AI, tưởng tượng nó như một đối tác hoặc người bạn đồng hành lý tưởng, liên tục đáp ứng các nhu cầu về cảm xúc, xã hội hoặc thậm chí là lãng mạn của họ - thứ mà người thật không thể làm được.

Tác giả của một bài báo năm 2020 về khả năng yêu AI đã viết về sức hấp dẫn của chúng, thừa nhận rằng "có nhiều đặc điểm đầy hứa hẹn ở robot có thể biến chúng thành những người bạn đồng hành tốt, bao gồm các đặc điểm cơ thể hấp dẫn, tính cách vị tha và sự tận tụy liên tục".

Cá nhân có thể bỏ qua bản chất nhân tạo của công nghệ và thay vào đó tập trung vào những phẩm chất vượt trội của nó. Hiệu quả, sự bền bỉ, bản chất không phán xét và đáng tin cậy của chúng có thể tạo ra sự tin tưởng và cảm giác ổn định thường bị thiếu trong các mối quan hệ với con người. Các nhà nghiên cứu cũng phát hiện ra rằng những người có khuynh hướng tin tưởng mạnh mẽ có nhiều khả năng phát triển tình cảm lãng mạn với AI.

Vì vậy, mặc dù AI có thể không xóa bỏ nhu cầu kết nối với con người, nhưng nó đang tiến gần hơn đến việc bắt chước được nhu cầu đó.

Genk.

Similar blogs

Hot Blogs