Henry Kissinger và Graham Allison nói về cách kiểm soát vũ khí AI

Henry Kissinger và Graham Allison, “The Path to AI Arms Control,” Foreign Affairs, 13/10/2023

Biên dịch: Nguyễn Thị Kim Phụng

Mỹ và Trung Quốc phải hợp tác để ngăn chặn thảm họa.

Một robot của Tesla được triển lãm ở Thượng Hải Tháng Bảy 2023. Ảnh: Aly Song / Reuters

Năm nay đánh dấu kỷ niệm 78 năm kết thúc cuộc chiến đẫm máu nhất trong lịch sử nhân loại và bắt đầu thời kỳ không có chiến tranh giữa các cường quốc dài nhất trong thời hiện đại. Bởi vì Thế chiến II đã diễn ra chỉ hai thập niên sau Thế chiến I, nên bóng ma của Thế chiến III, với những vũ khí có sức tàn phá khủng khiếp đến mức có thể tiêu diệt toàn bộ nhân loại, đã bao trùm suốt nhiều thập niên Chiến tranh Lạnh. 

Khi Mỹ thả hai quả bom nguyên tử xuống Hiroshima và Nagasaki buộc Nhật Bản phải đầu hàng vô điều kiện ngay lập tức, không ai có thể tưởng tượng được rằng thế giới sẽ chứng kiến một lệnh cấm sử dụng vũ khí hạt nhân trong bảy thập niên tới. Điều thậm chí còn khó tin hơn là, gần tám thập niên sau đó, chỉ còn 9 quốc gia có vũ khí hạt nhân. Khả năng lãnh đạo mà Mỹ thể hiện trong những thập niên này – để tránh xảy ra chiến tranh hạt nhân, làm chậm quá trình phổ biến vũ khí hạt nhân, và xây dựng một trật tự quốc tế mang lại hòa bình cho các cường quốc trong hàng chục năm – sẽ đi vào lịch sử như một trong những thành tựu quan trọng nhất của Mỹ.

Ngày nay, khi thế giới phải đối mặt với những thách thức đặc biệt, được đặt ra bởi một công nghệ chưa từng có, và ở một khía cạnh nào đó, thậm chí còn đáng sợ hơn vũ khí hạt nhân – trí tuệ nhân tạo (AI) – không có gì ngạc nhiên khi nhiều người đã quay lại tìm kiếm bài học trong lịch sử. 

Liệu những cỗ máy với khả năng siêu phàm có đe dọa đến địa vị làm chủ vũ trụ của loài người? Liệu AI sẽ làm suy yếu sự độc quyền của các quốc gia về phương tiện bạo lực hàng loạt? Liệu AI có cho phép các cá nhân hoặc nhóm nhỏ tạo ra loại virus có khả năng huỷ diệt trên quy mô mà trước đây chỉ có các cường quốc mới làm được? Và liệu AI có thể phá hoại các biện pháp răn đe hạt nhân vốn là trụ cột của trật tự thế giới ngày nay?

Hiện tại, không ai có thể tự tin trả lời những câu hỏi này. Nhưng khi tìm hiểu những vấn đề này trong hai năm vừa qua, với một nhóm các nhà lãnh đạo công nghệ đi đầu trong cuộc cách mạng AI, chúng tôi đã đi đến kết luận rằng khả năng sự tiến bộ không giới hạn của AI gây ra hậu quả thảm khốc cho Mỹ và thế giới là rất lớn, lớn đến mức các nhà lãnh đạo của các chính phủ phải hành động ngay bây giờ. Dù chẳng ai biết tương lai sẽ ra sao, nhưng chúng ta đã hiểu đủ để biết mình cần bắt đầu đưa ra những lựa chọn khó khăn và hành động ngay hôm nay, và cũng cần nhận ra rằng những lựa chọn đó sẽ phải được sửa đổi nhiều lần mỗi khi xuất hiện khám phá mới.

Khi các nhà lãnh đạo đưa ra lựa chọn của mình, những bài học kinh nghiệm trong kỷ nguyên hạt nhân có thể giúp họ đưa ra quyết định đúng đắn. Ngay cả những đối thủ đang chạy đua để phát triển và triển khai một công nghệ chưa từng có, với khả năng giết chết hàng trăm triệu người, vẫn có thể phát hiện ra lợi ích chung. Khi còn là hai cường quốc độc quyền hạt nhân, cả Mỹ và Liên Xô đều quan tâm đến việc ngăn chặn sự lan rộng nhanh chóng của công nghệ này sang các quốc gia có thể đe dọa họ. Cả Washington và Moscow đều nhận ra rằng nếu công nghệ hạt nhân rơi vào tay những thành phần bất hảo hoặc khủng bố trong biên giới của nước mình, công nghệ đó có thể được sử dụng để đe dọa họ, và vì vậy mỗi nước đều phát triển hệ thống an ninh mạnh mẽ cho kho vũ khí của mình. Tuy nhiên, vì mỗi bên cũng có thể bị đe dọa nếu những nhân tố bất hảo trong xã hội của đối thủ có được vũ khí hạt nhân, cả hai đều nhận ra lợi ích khi thảo luận về rủi ro này với nhau và mô tả các phương pháp và công nghệ mà họ đã phát triển để đảm bảo điều đó không xảy ra. Và khi kho vũ khí hạt nhân của họ đạt đến mức không thể tấn công bên kia mà không gây ra phản ứng tự hủy diệt, họ nhận ra nghịch lý rằng sự ổn định đến từ khả năng hủy diệt lẫn nhau chắc chắn (mutual assured destruction, MAD). Khi sự thật trần trụi này được hiểu rõ, các bên đã học cách hạn chế bản thân và tìm mọi cách thuyết phục đối thủ hạn chế các sáng kiến của mình, nhằm tránh những cuộc đối đầu có thể dẫn đến chiến tranh. Thật vậy, các nhà lãnh đạo của cả Mỹ và Liên Xô đều nhận ra rằng việc tránh một cuộc chiến hạt nhân mà quốc gia của họ sẽ là nạn nhân đầu tiên là một trách nhiệm cốt yếu.

Những thách thức do AI đặt ra ngày nay không đơn thuần là chương thứ hai của thời đại hạt nhân. Lịch sử không phải là một cuốn sách dạy nấu ăn với những công thức mà người ta có thể bắt chước để làm ra món bánh soufflé ngon lành. Sự khác biệt giữa AI và vũ khí hạt nhân cũng lớn như sự tương đồng giữa chúng. Tuy nhiên, nếu được tìm hiểu và điều chỉnh đúng cách, những bài học kinh nghiệm từ việc định hình một trật tự quốc tế đã tạo ra gần 8 thập niên không có chiến tranh giữa các cường quốc sẽ trở thành hướng dẫn tốt nhất cho các nhà lãnh đạo đối đầu với AI ngày nay.

Tại thời điểm này, chỉ có hai siêu cường AI: Mỹ và Trung Quốc là những quốc gia duy nhất có đủ nhân tài, viện nghiên cứu, và năng lực điện toán cần thiết để đào tạo các mô hình AI phức tạp nhất. Điều này mang lại cho họ một cửa sổ cơ hội hẹp để cùng viết ra hướng dẫn nhằm ngăn chặn những bước tiến và ứng dụng nguy hiểm nhất của AI. Tổng thống Mỹ Joe Biden và Chủ tịch Trung Quốc Tập Cận Bình nên nắm bắt cơ hội này bằng cách tổ chức một hội nghị thượng đỉnh – có lẽ là ngay sau cuộc họp của Diễn đàn Hợp tác Kinh tế Châu Á - Thái Bình Dương tại San Francisco vào tháng 11 – nơi họ có thể tổ chức các cuộc thảo luận mở rộng và trực tiếp về một trong những vấn đề có hậu quả lớn nhất mà họ phải đối mặt ngày nay.

Bài học từ thời đại hạt nhân

Sau khi bom nguyên tử tàn phá các thành phố của Nhật Bản vào năm 1945, các nhà khoa học đã mở chiếc hộp Pandora nguyên tử, tận mắt chứng kiến thứ họ đã tạo ra và rùng mình kinh hãi. Robert Oppenheimer, nhà khoa học đứng đầu Dự án Manhattan, nhớ lại một câu trong Bhagavad Gita: “Giờ đây tôi trở thành Thần Chết, kẻ hủy diệt các thế giới”. Oppenheimer trở thành người nhiệt thành ủng hộ các biện pháp triệt để nhằm kiểm soát bom hạt nhân đến mức ông bị tước quyền tiếp cận an ninh. Tuyên ngôn Russell-Einstein – được ký năm 1955 bởi 11 nhà khoa học hàng đầu, bên cạnh Bertrand Russell và Albert Einstein, còn có cả Linus Pauling và Max Born – đã cảnh báo về sức mạnh khủng khiếp của vũ khí hạt nhân và kêu gọi các nhà lãnh đạo thế giới đừng bao giờ sử dụng chúng.

Dù Tổng thống Mỹ Harry Truman chưa bao giờ nói rằng ông từng suy nghĩ lại về quyết định của mình, nhưng cả ông lẫn các thành viên ban cố vấn an ninh quốc gia đều không thực sự hình dung ra cách công nghệ tuyệt vời này có thể được tích hợp vào trật tự quốc tế thời hậu chiến. Mỹ có nên cố gắng duy trì vị thế độc quyền, là cường quốc nguyên tử duy nhất không? Điều đó có khả thi không? Để theo đuổi mục tiêu, liệu Mỹ có thể chia sẻ công nghệ của mình với Liên Xô không? Liệu mục tiêu sống còn trong một thế giới với vũ khí hạt nhân có đòi hỏi các nhà lãnh đạo phải tạo ra một quyền lực nào đó vượt trội hơn chính quyền quốc gia không? 

Henry Stimson, Bộ trưởng Chiến tranh của Truman (người vừa giúp giành chiến thắng trước cả Đức và Nhật Bản), đề xuất rằng Mỹ nên chia sẻ thế độc quyền về bom nguyên tử với lãnh đạo Liên Xô Joseph Stalin và Thủ tướng Anh Winston Churchill để tạo ra một “mái nhà” cường quốc, nhằm ngăn chặn sự phổ biến của vũ khí hạt nhân. Truman đã thành lập một ủy ban, do Thứ trưởng Ngoại giao Mỹ Dean Acheson làm chủ tịch, để phát triển một chiến lược như đề xuất của Stimson.

Về cơ bản, Acheson đồng ý với Stimson: cách duy nhất để ngăn chặn một cuộc chạy đua vũ trang hạt nhân kết thúc bằng chiến tranh thảm khốc là thành lập một cơ quan quốc tế duy nhất có quyền sở hữu vũ khí nguyên tử. Điều này sẽ yêu cầu Mỹ chia sẻ bí mật hạt nhân của mình với Liên Xô và các thành viên khác của Hội đồng Bảo an Liên Hiệp Quốc, chuyển vũ khí hạt nhân của mình cho một “cơ quan phát triển nguyên tử” mới của Liên Hiệp Quốc, và cấm tất cả các quốc gia phát triển vũ khí hoặc phát triển năng lực để sản xuất vật liệu hạt nhân cấp độ vũ khí. Năm 1946, Truman cử nhà tài chính và cố vấn tổng thống Bernard Baruch đến Liên Hiệp Quốc để đàm phán một thỏa thuận nhằm triển khai kế hoạch của Acheson. Nhưng đề xuất này đã bị Andrei Gromyko, đại diện Liên Xô tại Liên Hiệp Quốc, bác bỏ một cách dứt khoát.

Ba năm sau, khi Liên Xô thành công với nỗ lực chế tạo bom của riêng mình, Mỹ và Liên Xô đã bước vào thời kỳ mà mọi người bắt đầu gọi là Chiến tranh Lạnh: một cuộc cạnh tranh hoàn toàn không có bom và đạn. Đặc điểm trung tâm của cuộc cạnh tranh này là động lực nhằm đạt được ưu thế hạt nhân. Ở thời kỳ đỉnh cao, kho vũ khí hạt nhân của hai siêu cường gồm hơn 60.000 vũ khí, một vài trong số đó là đầu đạn có sức nổ mạnh hơn tất cả các loại vũ khí đã được sử dụng trong tất cả các cuộc chiến trong lịch sử. Các chuyên gia bắt đầu tranh luận liệu một cuộc chiến hạt nhân tổng lực có đồng nghĩa với hồi kết cho mọi linh hồn sống trên trái đất hay không.

Suốt nhiều thập niên, Washington và Moscow đã chi hàng nghìn tỷ USD cho kho vũ khí hạt nhân của mình. Hiện tại, ngân sách hàng năm Mỹ dành cho vũ khí hạt nhân vượt quá 50 tỷ USD. Trong những thập niên đầu tiên của cuộc chạy đua này, cả Mỹ và Liên Xô đều đã có những bước nhảy vọt mà trước đây không thể tưởng tượng được, với hy vọng giành được lợi thế quyết định. Việc tăng sức nổ của vũ khí cũng đòi hỏi phải tạo ra các thước đo mới: từ kiloton (tương đương với năng lượng giải phóng bởi một nghìn tấn TNT) cho vũ khí phân hạch thời kỳ đầu, đến megaton (tương đương với năng lượng giải phóng bởi một triệu tấn TNT) cho bom nhiệt hạch hydro. Hai bên đã phát minh ra tên lửa xuyên lục địa có khả năng mang đầu đạn tới các mục tiêu ở phía bên kia hành tinh chỉ trong vòng 30 phút, các vệ tinh bay vòng quanh địa cầu ở độ cao hàng trăm kilomet với camera có thể xác định tọa độ của mục tiêu với sai lệch chỉ vài centimet, và các hệ thống phòng thủ về cơ bản có thể “dùng đạn bắn trúng đạn”. Một số nhà quan sát đã nghiêm túc suy nghĩ về các hệ thống phòng thủ có thể khiến vũ khí hạt nhân trở nên “bất lực và lỗi thời” như lời Tổng thống Ronald Reagan.

Kho vũ khí mang tính khái niệm

Trong nỗ lực định hình những diễn biến này, các chiến lược gia đã phát triển một kho vũ khí mang tính khái niệm để phân biệt giữa đòn tấn công thứ nhất và đòn tấn công thứ hai. Họ xác định rõ các yêu cầu cần thiết để tạo ra phản ứng trả đũa đáng tin cậy. Và họ đã phát triển bộ ba hạt nhân – tàu ngầm, máy bay ném bom, và tên lửa tấn công đất liền – để đảm bảo rằng nếu kẻ thù phát hiện ra một lỗ hổng, thì các thành phần khác của kho vũ khí vẫn sẵn sàng cho một phản ứng tàn khốc. Nhận thức về rủi ro của việc phóng vũ khí vô tình hoặc trái phép đã thúc đẩy việc đặt ra các chuỗi kích hoạt hành động – khóa điện tử được gắn trong vũ khí hạt nhân giúp ngăn chúng kích hoạt nếu không có mã phóng hạt nhân phù hợp. Các biện pháp dự phòng được thiết kế để bảo vệ chống lại những đột phá công nghệ có thể gây nguy hiểm cho các hệ thống chỉ huy và kiểm soát, từ đó thúc đẩy việc phát minh ra mạng máy tính mà sau này đã phát triển thành Internet. Như câu nói nổi tiếng của chiến lược gia Herman Kahn, người ta đã “nghĩ về những điều không thể nghĩ được”.

Cốt lõi của chiến lược hạt nhân là khái niệm răn đe: ngăn chặn đối thủ tấn công bằng cách áp một cái giá đắt gấp nhiều lần so với bất kỳ lợi ích nào có thể tưởng tượng được. Để răn đe thành công, không chỉ đòi hỏi năng lực mà còn cả mức độ tin cậy. Những nạn nhân tiềm năng không chỉ cần phương tiện để đáp trả một cách dứt khoát mà còn cần ý chí để làm vậy. Các nhà chiến lược đã cải tiến ý tưởng cơ bản này bằng các khái niệm như răn đe mở rộng, tìm cách sử dụng một cơ chế chính trị – cam kết bảo vệ thông qua liên minh – để thuyết phục các quốc gia chủ chốt không xây dựng kho vũ khí của riêng mình.

Đến năm 1962, khi Tổng thống Mỹ John F. Kennedy đối đầu lãnh đạo Liên Xô Nikita Khrushchev trong cuộc khủng hoảng tên lửa mang đầu đạn hạt nhân mà Liên Xô đã đặt ở Cuba, cộng đồng tình báo Mỹ ước tính rằng ngay cả khi Kennedy tiến hành cuộc tấn công đầu tiên thành công, phản ứng trả đũa của Liên Xô bằng các nguồn lực sẵn có của họ vẫn có thể giết chết 62 triệu người Mỹ. Đến năm 1969, khi Richard Nixon trở thành tổng thống, người Mỹ đã phải suy nghĩ lại cách tiếp cận của mình. Một người trong chúng tôi, Kissinger, sau này đã mô tả thách thức: “Các chiến lược phòng thủ được hình thành trong thời kỳ chúng ta chiếm ưu thế phải được xem xét lại dưới ánh sáng khắc nghiệt của thực tế mới… Không có luận điệu hiếu chiến nào có thể che giấu sự thật rằng các kho dự trữ hạt nhân hiện có đủ sức hủy diệt loài người… Không thể có nhiệm vụ nào cao hơn việc ngăn chặn thảm họa chiến tranh hạt nhân”.

Để minh hoạ cho tình hình đó, các chiến lược gia đã tạo ra từ viết tắt MAD (nghĩa là “điên rồ” – NBT) đầy mỉa mai, mà bản chất của nó đã được tóm tắt bằng câu nói mà Reagan thường lặp đi lặp lại: “Không thể chiến thắng trong một cuộc chiến hạt nhân – do đó đừng bao giờ chiến đấu”. Xét trên thực tế, MAD có nghĩa là đảm bảo cả hai đều dễ tổn thương như nhau. Cả Mỹ và Liên Xô đều tìm cách thoát khỏi tình trạng này, nhưng cuối cùng nhận ra rằng họ không thể làm vậy, và về cơ bản cần phải tái định nghĩa mối quan hệ của mình. Năm 1955, Churchill đã chỉ ra điều trớ trêu tột cùng, rằng “sự an toàn sẽ là đứa con cứng đầu của nỗi kinh hoàng, và sự sống sót sẽ là người anh em sinh đôi của sự hủy diệt”. Theo những cách không phủ nhận những khác biệt về giá trị hay làm tổn hại đến lợi ích sống còn của quốc gia, các đối thủ phải phát triển các chiến lược để đánh bại bên còn lại bằng mọi cách có thể, ngoại trừ chiến tranh tổng lực.

Một trụ cột của những chiến lược kiểu này là loạt các ràng buộc cả ngầm định lẫn công khai, mà ngày nay được gọi là kiểm soát vũ khí. Ngay từ trước thời MAD, mỗi khi các siêu cường cố gắng để đạt được ưu thế, họ lại khám phá ra những lĩnh vực có lợi ích chung. Để giảm nguy cơ mắc sai lầm, Mỹ và Liên Xô đã đồng ý trong các cuộc thảo luận không chính thức rằng họ sẽ không can thiệp vào việc giám sát lãnh thổ của nhau. Để bảo vệ công dân của họ khỏi bụi phóng xạ, họ đã cấm thử nghiệm vũ khí hạt nhân trong khí quyển. Để tránh “khủng hoảng bất ổn” – khi một bên cảm thấy cần phải tấn công trước vì tin rằng bên kia sắp làm vậy – họ đã đồng ý hạn chế hệ thống phòng thủ tên lửa trong Hiệp ước Chống Tên lửa Đạn đạo năm 1972. Tiếp đến, trong Hiệp ước Lực lượng Hạt nhân Tầm trung được ký năm 1987, Reagan và nhà lãnh đạo Liên Xô Mikhail Gorbachev đã đồng ý loại bỏ lực lượng hạt nhân tầm trung. Các cuộc Đàm phán Hạn chế Vũ khí Chiến lược, dẫn đến các hiệp ước được ký năm 1972 và 1979, đã hạn chế gia tăng số lượng bệ phóng tên lửa, và sau đó, Hiệp ước Cắt giảm Vũ khí Chiến lược (START), ký năm 1991, và START mới, ký năm 2010, đã giảm số lượng các bệ phóng này. Hệ quả lớn nhất có lẽ là việc Mỹ và Liên Xô kết luận rằng việc phổ biến vũ khí hạt nhân sang các quốc gia khác sẽ đe dọa cả hai và cuối cùng có thể gây ra tình trạng hỗn loạn hạt nhân. Họ đã tạo ra cái mà ngày nay chúng ta gọi là chế độ không phổ biến vũ khí hạt nhân, với trọng tâm là Hiệp ước Không Phổ biến Vũ khí Hạt nhân năm 1968, qua đó 186 quốc gia đã cam kết kiềm chế phát triển kho vũ khí hạt nhân của riêng mình.

Kiểm soát AI 

Trong các đề xuất hiện tại về cách ngăn chặn AI, người ta có thể nhận ra nhiều tiếng vang từ quá khứ. Yêu cầu của tỷ phú Elon Musk về việc tạm dừng phát triển AI trong sáu tháng, đề xuất của nhà nghiên cứu AI Eliezer Yudkowsky về việc bãi bỏ AI, và yêu cầu của nhà tâm lý học Gary Marcus rằng AI phải được kiểm soát bởi một cơ quan chính phủ toàn cầu, về cơ bản, đang lặp lại các đề xuất từ kỷ nguyên hạt nhân vốn đã thất bại. Lý do là các đề xuất này đều yêu cầu các quốc gia hàng đầu phải từ bỏ chủ quyền của mình. Trong lịch sử chưa bao giờ có một cường quốc nào lo sợ rằng đối thủ cạnh tranh có thể áp dụng một công nghệ mới để đe dọa sự sống còn và an ninh của họ lại quyết định từ bỏ việc phát triển công nghệ đó cho chính mình. Ngay cả các đồng minh thân cận của Mỹ như Anh và Pháp cũng lựa chọn phát triển năng lực hạt nhân quốc gia bên cạnh việc dựa vào chiếc ô hạt nhân của Mỹ.

Để áp dụng các bài học từ lịch sử hạt nhân vào việc giải quyết thách thức hiện tại, điều cần thiết là phải nhận ra sự khác biệt nổi bật giữa AI và vũ khí hạt nhân. 

Thứ nhất, trong khi các chính phủ dẫn đầu sự phát triển của công nghệ hạt nhân, thì các doanh nhân tư nhân, kỹ sư công nghệ, và công ty đang thúc đẩy những tiến bộ trong lĩnh vực AI. Các nhà khoa học làm việc cho Microsoft, Google, Amazon, Meta, OpenAI, và một số công ty khởi nghiệp nhỏ hơn đang vượt xa bất kỳ nỗ lực tương tự nào trong các chính phủ. Hơn nữa, các công ty này hiện đang bị mắc kẹt trong một cuộc cạnh tranh lẫn nhau – điều chắc chắn thúc đẩy sự đổi mới, nhưng cũng khiến người ta phải trả giá. Và khi các chủ thể tư nhân này đánh đổi giữa rủi ro và lợi ích, lợi ích quốc gia chắc chắn sẽ không là ưu tiên hàng đầu.

Thứ hai, AI hoạt động trên nền tảng kỹ thuật số. Vũ khí hạt nhân rất khó sản xuất, đòi hỏi cơ sở hạ tầng phức tạp để thực hiện mọi việc, từ làm giàu uranium đến thiết kế vũ khí hạt nhân. Các sản phẩm tạo ra là vật thể vật chất và do đó có thể đong đếm được. Nếu có thể xác định được những gì đối thủ đang làm, thì những hạn chế sẽ xuất hiện. Nhưng AI đại diện cho một thách thức khác biệt rõ rệt. Những bước tiến lớn của AI xảy ra trong tâm trí con người. Khả năng ứng dụng của nó đang được phát triển trong các phòng thí nghiệm, và việc triển khai nó rất khó quan sát. Vũ khí hạt nhân là hữu hình, còn bản chất của trí tuệ nhân tạo là khái niệm vô hình.

Thứ ba, AI đang phát triển và lan rộng với tốc độ khiến các cuộc đàm phán kéo dài trở thành vô nghĩa. Kiểm soát vũ khí đã phát triển qua nhiều thập niên. Nhưng những hạn chế đối với AI cần phải được triển khai trước khi AI được tích hợp vào cấu trúc an ninh của mỗi xã hội – nghĩa là trước khi máy móc bắt đầu đặt ra các mục tiêu riêng của chúng, điều mà một số chuyên gia hiện nay cho rằng có khả năng xảy ra trong vòng 5 năm tới. Thời hạn này trước tiên đòi hỏi phải có các cuộc thảo luận và phân tích ở cấp quốc gia, sau đó là quốc tế, cũng như động lực mới trong quan hệ giữa chính phủ và khu vực tư nhân.

May mắn thay, các công ty lớn phát triển AI tạo sinh và đưa Mỹ trở thành siêu cường AI hàng đầu đã nhận ra rằng họ có trách nhiệm không chỉ với các cổ đông, mà còn với đất nước và nhân loại nói chung. Nhiều công ty đã phát triển các hướng dẫn riêng để đánh giá rủi ro trước khi triển khai, giảm sai lệch trong dữ liệu đào tạo, và hạn chế việc sử dụng mô hình của họ cho các mục đích nguy hiểm. Những công ty khác đang tìm cách hạn chế việc đào tạo và áp đặt các yêu cầu “hiểu khách hàng của bạn” (KYC) đối với các nhà cung cấp điện toán đám mây. Một bước đi đúng hướng quan trọng là sáng kiến mà chính quyền Biden công bố vào tháng 7, mời lãnh đạo của bảy công ty AI lớn đến Nhà Trắng để ra cam kết chung, nhằm thiết lập các hướng dẫn nhằm đảm bảo “an toàn, an ninh, và tin cậy.”

Như Kissinger đã chỉ ra trong The Age of AI (Thời đại AI), điều cấp bách là phải tạo ra một nghiên cứu có hệ thống về những tác động lâu dài của các phát minh và ứng dụng phi thường của AI. Dù nước Mỹ đang bị chia rẽ nhiều nhất kể từ thời Nội chiến, mức độ rủi ro do những bước tiến không được kiểm soát của AI gây ra đòi hỏi các lãnh đạo trong cả chính phủ và doanh nghiệp phải hành động ngay lập tức. Các công ty sở hữu khả năng điện toán lớn, chuyên đào tạo các mô hình AI mới, và các công ty hoặc nhóm nghiên cứu chuyên phát triển các mô hình mới nên thành lập một nhóm để phân tích các tác động về con người và địa chính trị trong các hoạt động AI thương mại của mình.

Thách thức này mang tính lưỡng đảng và đòi hỏi một phản ứng thống nhất. Trên tinh thần đó, Tổng thống và Quốc hội nên thành lập một ủy ban quốc gia bao gồm các cựu lãnh đạo phi đảng phái xuất sắc trong khu vực tư nhân, Quốc hội, quân đội và cộng đồng tình báo. Ủy ban nên đề xuất các biện pháp bảo vệ bắt buộc cụ thể hơn, và chúng phải bao gồm các yêu cầu để liên tục đánh giá khả năng điện toán cần thiết để đào tạo các mô hình AI như GPT-4, và trước khi các công ty phát hành một mô hình mới, cần nhấn mạnh việc kiểm tra nó để tìm những rủi ro cực độ. Dù nhiệm vụ phát triển các quy tắc sẽ rất khó khăn, nhưng ủy ban này đã có một tiền lệ là Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo. Các khuyến nghị của nó, được đưa ra vào năm 2021, đã cung cấp động lực và định hướng cho các sáng kiến mà quân đội Mỹ và các cơ quan tình báo Mỹ đang thực hiện trong cuộc cạnh tranh AI với Trung Quốc.

Hai siêu cường AI 

Ngay cả ở giai đoạn đầu này, trong khi Mỹ vẫn đang tạo ra khuôn khổ riêng để quản lý AI trong nước, thì cũng không còn quá sớm để bắt đầu các cuộc đối thoại nghiêm túc với siêu cường AI còn lại của thế giới. Các công ty lớn của Trung Quốc trong lĩnh vực công nghệ – Baidu (công cụ tìm kiếm hàng đầu của nước này), ByteDance (người tạo ra TikTok), Tencent (chủ quản của WeChat) và Alibaba (dẫn đầu về thương mại điện tử) – đang xây dựng một bộ máy tương tự như ChatGPT cho ngôn ngữ Trung Quốc, dù hệ thống chính trị nước này đã gây ra những khó khăn đặc biệt cho AI. Dù Trung Quốc vẫn còn tụt hậu về công nghệ sản xuất chất bán dẫn tiên tiến, nhưng nước này đang sở hữu những yếu tố cần thiết để dẫn đầu trong tương lai gần.

Do đó, Biden và Tập sẽ phải sớm gặp nhau để thảo luận riêng về việc kiểm soát vũ khí AI. Cuộc họp Diễn đàn Hợp tác Kinh tế Châu Á - Thái Bình Dương vào tháng 11 tại San Francisco mang đến cơ hội đó. Mỗi nhà lãnh đạo nên trình bày cách mà cá nhân họ đánh giá những rủi ro do AI gây ra, và quốc gia của họ đang làm gì để ngăn chặn các ứng dụng gây ra rủi ro thảm khốc, cũng như để đảm bảo rằng các công ty trong nước không xuất khẩu rủi ro đó ra bên ngoài. Để chuẩn bị cho vòng thảo luận tiếp theo, họ nên thành lập một nhóm cố vấn bao gồm các nhà khoa học AI của Mỹ và Trung Quốc, cũng như những người đã từng phân tích ý nghĩa những bước phát triển của AI. Cách tiếp cận này sẽ mô phỏng theo chính sách ngoại giao Kênh II hiện có trong các lĩnh vực khác, trong đó các nhóm bao gồm các cá nhân được lựa chọn dựa trên khả năng phán đoán và sự công bằng, dù không được chính phủ của họ chính thức xác nhận. Từ các cuộc thảo luận với các nhà khoa học chủ chốt ở cả hai chính phủ, chúng tôi tin rằng nó sẽ là một cuộc thảo luận mang lại hiệu quả cao.

Các cuộc thảo luận và hành động của Mỹ và Trung Quốc trong khuôn khổ này sẽ chỉ là một phần của cuộc đối thoại toàn cầu đang nổi lên về AI, bao gồm Hội nghị Thượng đỉnh về An toàn AI mà Vương quốc Anh tổ chức vào tháng 11, và cuộc đối thoại đang diễn ra tại Liên Hiệp Quốc. Vì mọi quốc gia sẽ tìm cách sử dụng AI để nâng cao cuộc sống của người dân, đồng thời đảm bảo sự an toàn cho xã hội của họ, nên về lâu dài, sẽ cần phải có một trật tự AI toàn cầu. Công việc này nên bắt đầu bằng những nỗ lực quốc gia nhằm ngăn chặn những hậu quả nguy hiểm nhất và thảm khốc nhất của AI. Những sáng kiến này cần được bổ sung bằng các cuộc đối thoại giữa các nhà khoa học từ nhiều quốc gia khác nhau, cùng tham gia phát triển các mô hình AI lớn, và các thành viên của ủy ban quốc gia như ủy ban được đề xuất trên đây. Các cuộc đàm phán chính thức của chính phủ, trước tiên là giữa các quốc gia có chương trình AI tiên tiến, nên tìm cách thiết lập một khuôn khổ quốc tế, cùng với một cơ quan quốc tế có thể so sánh với Cơ quan Năng lượng Nguyên tử Quốc tế.

Nếu Biden, Tập, và các nhà lãnh đạo thế giới khác hành động ngay bây giờ để đối mặt với những thách thức do AI đặt ra, một cách thẳng thắn như những người tiền nhiệm của họ đã làm trong việc giải quyết các mối đe dọa hạt nhân trong những thập niên trước, liệu họ có thành công không? Nếu nhìn vào bức tranh lịch sử rộng lớn hơn và sự phân cực ngày càng gia tăng hiện nay, thật khó để lạc quan. Dù vậy, việc chúng ta kỷ niệm 78 năm hòa bình giữa các cường quốc hạt nhân sẽ truyền cảm hứng để mọi người đối đầu những thách thức mang tính cách mạng, không thể tránh khỏi trong tương lai AI của chúng ta.

H.K. và G.A.

---

Henry A. Kissinger là Chủ tịch Hiệp hội Kissinger. Ông từng là Cố vấn An ninh Quốc gia Mỹ từ năm 1969 đến năm 1975 và Ngoại trưởng Mỹ từ năm 1973 đến năm 1977.

Graham Allison là Giáo sư về Quản trị chính quyền tại Đại học Harvard. Ông là tác giả cuốn “Định mệnh Chiến tranh: Liệu Mỹ và Trung Quốc có thoát khỏi bẫy Thucydides?”

Nguồn bản dịch: Nghiencuuquocte.org

Sáng lập:

Nguyễn Huệ Chi - Phạm Toàn - Nguyễn Thế Hùng

Điều hành:

Nguyễn Huệ Chi [trước] - Phạm Xuân Yêm [nay]

Liên lạc: bauxitevn@gmail.com

boxitvn.online

boxitvn.blogspot.com

FB Bauxite Việt Nam


Bài đã đăng

Được tạo bởi Blogger.

Nhãn