Hello,

Sign in to find your next job.

Blog IT

Chuyên gia khuyên chúng ta nên chế ngự AI siêu thông minh trước khi quá muộn!

Chuyên gia khuyên chúng ta nên chế ngự AI siêu thông minh trước khi quá muộn!

Mặc dù các hệ thống AI cực kỳ hữu ích nhưng với mức độ kiểm soát hiện tại của chúng ta, AI siêu thông minh có thể sẽ mang đến những nguy cơ tiềm ẩn.

 

Một số người tin rằng AI là những công cụ tuyệt vời cho nhân loại trong khi những người khác cảnh báo rằng công nghệ này nguy hiểm và gây ra mối đe dọa nghiêm trọng cho xã hội. Mặc dù chúng ta vẫn chưa biết quan điểm nào là đúng về AI nhưng một số nhà khoa học tin rằng chúng ta nên thận trọng.

Roman Yampolskiy, Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville gần đây đã công bố một nghiên cứu cho thấy rằng mặc dù trí tuệ nhân tạo là một công nghệ tuyệt vời đã mang lại lợi ích cho con người theo nhiều cách, nhưng cho tới nay, không ai giải quyết được các vấn đề về kiểm soát AI một cách an toàn.

Theo Yampolskiy, chúng ta không nên đánh giá thấp thực tế rằng superintelligent general AI (AI phổ quát siêu thông minh), có khả năng vượt trội hơn trí thông minh của con người, cũng có thể gây ra thảm họa hiện hữu nếu nó vượt khỏi tầm kiểm soát của con người.

Chuyên gia khuyên chúng ta nên chế ngự AI siêu thông minh trước khi quá muộn!

AI được kiểm soát một phần và hoàn toàn

Nghiên cứu nhấn mạnh rằng, hiện tại, con người có quyền kiểm soát một phần AI. Con người có thể tác động nhưng không thể quyết định hoàn toàn các hành vi của AI. Điều này có thể bao gồm việc đặt ra các hướng dẫn hoặc mục tiêu chung nhưng không có cách nào thực sự để đảm bảo AI tuân thủ các mục tiêu đó trong mọi trường hợp.

Yampolskiy nói với ZME Science: "Một ví dụ về kiểm soát một phần là các hệ thống AI hiện tại, nơi các biện pháp an toàn và cơ chế giám sát có thể hướng dẫn hành vi của AI nhưng không thể loại bỏ nguy cơ xảy ra những hậu quả không lường trước được do AI có hiểu biết hạn chế về các giá trị phức tạp của con người".

Ví dụ: khi Microsoft phát triển Bing AI, công ty đã đặt ra một số nguyên tắc liên quan đến việc sử dụng ngôn ngữ và giọng điệu. Tuy nhiên, khi Bing AI mới ra mắt, nó đã có một số hoạt động thất thường, thậm chí còn đe dọa người dùng. Điều đó hẳn đã khiến một số người sợ hãi.

Chúng ta không biết điều gì đã xảy ra với chương trình nhưng có một khả năng là nó được kiểm soát một phần và không tuân thủ các nguyên tắc do con người tạo ra. Ít nhất, các chương trình AI như vậy phải có khả năng giải thích các yếu tố khiến chúng hành động hoặc đưa ra quyết định theo một cách nhất định.

Đây là lý do tại sao Yampolskiy ủng hộ việc kiểm soát hoàn toàn an toàn đối với AI. Điều này sẽ đảm bảo - ít nhất là về mặt lý thuyết - rằng các hệ thống AI sẽ luôn hành động theo những cách có lợi cho nhân loại và phù hợp với các giá trị của chúng ta, bất kể tình huống nào.

"Một trong những phát hiện quan trọng từ nghiên cứu của chúng tôi trong lĩnh vực an toàn AI là khái niệm ''vấn đề liên kết'', nhấn mạnh thách thức trong việc đảm bảo các mục tiêu của hệ thống AI hoàn toàn phù hợp với các giá trị và ý định của con người". Yampolskiy nói thêm: "Sự sai lệch này, đặc biệt là trong các hệ thống AI mạnh mẽ, thể hiện một dạng nằm ngoài tầm kiểm soát của con người".

Nghiên cứu hiện tại không thể tìm thấy bất kỳ bằng chứng nào cho thấy thế hệ chương trình AI hiện tại hoàn toàn nằm dưới sự kiểm soát an toàn của con người.

AI có thể đe dọa công việc của chúng ta?

Mối quan tâm chính của hầu hết mọi người về AI là liệu nó có thay thế công việc của họ hay không. Tuy nhiên, điều họ không hiểu là mối lo ngại về việc AI gây ra thảm họa hiện sinh vượt ra ngoài vấn đề dịch chuyển việc làm.

Nó liên quan đến các tình huống trong đó các hệ thống AI tiên tiến bắt đầu hành động theo những cách gây hại cho nhân loại trên phạm vi toàn cầu.

Yampolskiy nói với ZME Science: "Rủi ro đặc biệt rõ rệt với sự phát triển của AI siêu thông minh, có thể vượt trội hơn khả năng của con người trong mọi lĩnh vực, bao gồm hoạch định và thao túng chiến lược, có khả năng dẫn đến những tình huống mà con người không thể kiểm soát hoặc chống lại hành động của mình".

Thử thách với sự an toàn và kiểm soát AI

Các nghiên cứu (bao gồm cả nghiên cứu hiện tại) về an toàn và kiểm soát AI phải đối mặt với một số hạn chế, bao gồm cả bản chất lý thuyết của nhiều rủi ro liên quan đến AI tiên tiến, khiến việc xác nhận theo kinh nghiệm trở nên khó khăn.

Ngoài ra, tốc độ phát triển AI nhanh chóng có thể vượt xa tốc độ khái niệm hóa và thực hiện các biện pháp an toàn.

Ngoài ra, còn có thách thức trong việc đảm bảo sự hợp tác toàn cầu trong các nỗ lực an toàn AI, vì các bên liên quan khác nhau có thể có lợi ích và mức độ cam kết khác nhau đối với các giao thức an toàn.

Tất cả những yếu tố này khiến việc kiểm soát AI an toàn trở thành một vấn đề rất phức tạp.

Trên thực tế, một nghiên cứu được công bố vào năm 2021 bởi các nhà nghiên cứu từ Viện Phát triển Con người Max Planck cho thấy ngay cả khi chúng ta muốn, về mặt kỹ thuật, gần như không thể kiểm soát hoàn toàn một AI siêu thông minh.

Tuy nhiên, điều đó không có nghĩa là vấn đề hoàn toàn không thể giải quyết được.

Vẫn còn một số cách để đảm bảo an toàn

Yampolskiy cho rằng các công ty AI và cơ quan quản lý có thể thực hiện một số cách để giảm thiểu rủi ro với

AI siêu thông minh cũng như làm cho nó an toàn và có thể kiểm soát được, bao gồm:

Phát triển các tiêu chuẩn an toàn AI mạnh mẽ được áp dụng và thực thi trên toàn cầu.

Đầu tư vào nghiên cứu để hiểu rõ hơn và giảm thiểu rủi ro tiềm ẩn liên quan đến công nghệ AI.

Thực hiện các biện pháp minh bạch để đảm bảo quá trình hoạt động và ra quyết định của hệ thống AI có thể hiểu được đối với con người.

Thiết lập các cơ chế giám sát bao gồm cả các biện pháp bảo vệ kỹ thuật và khung pháp lý để giám sát và hướng dẫn phát triển và triển khai AI.

Thúc đẩy hợp tác quốc tế để đảm bảo sự thống nhất toàn cầu về các tiêu chuẩn và thực hành an toàn AI.

Yampolskiy nói với ZME Science: "Mục tiêu là đảm bảo rằng khi các công nghệ AI tiếp tục phát triển, chúng sẽ hoạt động theo cách mang lại lợi ích cho nhân loại đồng thời giảm thiểu tác hại tiềm tàng".

GenK.

Similar blogs

Hot Blogs

Similar jobs