Phát Minh Cuối Cùng - Chương 14
14
Sự Cáo Chung
Của Kỷ Nguyên Con Người
Luận điểm này về cơ bản rất đơn giản. Chúng ta bắt đầu với một nhà máy, một máy bay, một phòng nghiên cứu sinh học, hoặc một cơ chế nào đó với nhiều bộ phận… Sau đó ta cần có hai hỏng hóc, hoặc nhiều hơn thế trong các bộ phận đó, và chúng tương tác với nhau theo cách không lường trước… Khuynh hướng tương tác này là một thuộc tính chứ không phải là một phần hay một biến số của hệ thống, chúng ta sẽ gọi nó là “tính phức tạp tương tác” của hệ thống.1
Charles Perrow
Normal Accidents Tôi đoán rằng chỉ vài năm nữa, chúng ta sẽ chứng kiến một thảm họa lớn được tạo ra khi một hệ thống máy tính tự động ra một quyết định nào đó.2
Wendell Wallach
nhà Đạo đức học, Đại học Yale Chúng ta đã khảo sát về vốn tài trợ và sự phức tạp của phân mềm để xem nó có phải là những rào cản đối với sự bùng nổ trí thông minh không, và thấy rằng cả hai dường như đều không ngăn được sự tiến triển liên tục tới AGI và ASI. Nếu các nhà phát triển khoa học máy tính không thể làm được điều đó, họ hẳn sẽ đang điên cuồng chế tạo một thứ gì đó khác và mạnh vào thời điểm các nhà khoa học thần kinh điện toán đạt tới AGI. Một sự dung hòa giữa hai cách tiếp cận, xuất phát từ những nguyên tắc của cả tâm lý học nhận thức và khoa học thần kinh có vẻ dễ xảy ra hơn.
Trong khi vốn tài trợ và sự phức tạp của phần mềm không phải là những rào cản thực sự với AGI, nhiều ý tưởng mà chúng ta đã thảo luận trong cuốn sách này cho thấy những vật cản lớn đối với việc chế tạo loại AGI suy nghĩ như con người. Không người nào có tham vọng chế tạo AGI mà tôi từng nói chuyện lại muốn tạo ra các hệ thống hoàn toàn dựa trên phương thức lập trình mà tôi từng gọi là “thông thường” ở Chương 5. Như chúng ta đã thảo luận, trong lập trình thông thường, dựa trên cơ sở logic, con người viết từng dòng mã, và tất cả quá trình từ nhập liệu đến xuất liệu đều có thể dễ dàng kiểm tra trên lý thuyết. Điều đó có nghĩa là chương trình đó có thể được chứng minh bằng toán học rằng nó “an toàn” hoặc “thân thiện.” Thay vào đó, họ sẽ sử dụng các công cụ hộp đen như lập trình di truyền và mạng neuron. Bởi các kiến trúc nhận thức vốn đã rất phức tạp, nên bạn sẽ thu được một thứ có thuộc tính không thể hiểu được, một thứ không phải là ngẫu nhiên mà là bản chất của các hệ thống AGI. Các nhà khoa học sẽ đạt tới những hệ thống thông minh nhưng xa lạ.
Steve Jurvetson, nhà khoa học, nhà tiên phong về công nghệ có tiếng, đồng nghiệp của Steve Jobs tại Apple, đã xem xét cách kết hợp các hệ thống “được thiết kế” và “được tiến hóa ra.” Ông có một cách dỉễn đạt thú vị đối với nghịch lý về tính không thể thăm dò này:
Vì thế, nếu ta tiến hóa ra một hệ thống phức tạp, nó sẽ là một hộp đen được định nghĩa bởi những giao diện của nó. Chứng ta không thể dễ dàng áp dụng những trực giác về thiết kế của mình để cải tiến những phương thức vận hành bên trong nó… Nếu ta tiến hóa ra một AI thông minh nhân tạo, nó sẽ là một trí thông minh xa lạ, được định nghĩa bởi các giao diện cảm quan của nó, và để hiểu cách mà nó hoạt động, chúng ta có lẽ sẽ mất nhiều công sức giống như khi muốn hiểu các hoạt động của bộ não hiện nay. Với giả thiết rằng mã máy tính sẽ tiến hóa với tốc độ nhanh hơn quá trình sinh sản của sinh vật, nhiều khả năng chúng ta sẽ không dừng lại để thực hiện kỹ nghệ đảo ngược các trí thông minh trung gian đó, bởi những kết quả thu được sẽ có ít ứng dụng. Chúng ta sẽ để cho quá trình tiến hóa tiếp tục.3
Điểm quan trọng ở đây là Jurvetson đã trả lời câu hỏi: “Các hệ thống hoặc hệ thống con được tiến hóa ra sẽ phức tạp đến mức nào?” Câu trả lời: phức tạp đến nỗi để hiểu chúng tường tận và cặn kẽ sẽ đòi hỏi cả một kỳ công về mặt kỹ thuật, tương đương với kỹ nghệ đảo ngược bộ não. Điều này nghĩa là thay vì đạt tới một siêu trí tuệ nhân tạo giống con người, hay ASI, các hệ thống hoặc hệ thống con được tiến hóa ra chắc chắn sẽ là dạng thông minh có một “bộ não” cũng khó hiểu như bộ não chúng ta; một thực thể xa lạ. Bộ não xa lạ này sẽ tiến hóa và tự cải tiến với tốc độ máy tính, chứ không phải tốc độ sinh học.
Trong cuốn sách viết năm 1988, Reflections on Artificial Intelligence (Suy ngẫm về Trí tuệ nhân tạo), Blay Whitby lập luận rằng do những hệ thống như vậy có tính bất khả tri, nên sẽ là ngu xuẩn nếu chúng ta dùng chúng trong các AI “đòi hỏi độ an toàn đặc biệt”:
… những vấn đề (mà một hệ thống được thiết kế bằng các giâi thuật) có trong việc tạo ra các phần mềm hoặc ứng dụng đòi hỏi độ an toàn cao không là gì khi so sánh với các vấn đề nảy sinh từ những cách tiếp cận mới với AI. Phần mềm sử dụng một số dạng kỹ thuật như mạng neuron hoặc giải thuật di truyền sẽ phải đối diện với một vấn đề nữa, mà dường như chủ yếu về mặt bản chất, đó là nó sẽ “không thể được nhìn thấu.” Ý tôi là những quy luật chính xác, giúp chúng ta dự đoán các hoạt động của nó một cách toàn diện là không có, và thường là sẽ không bao giờ có. Chúng ta có thể biết rằng nó hoạt động được và kiểm tra nó trong một số trường hợp, nhưng chúng ta sẽ không thể biết trong trường hợp nhất định thì chính xác ra nó đã làm những gì… Nghĩa là vấn đề này không thể trì hoãn được, vì cả mạng neuron lẫn giải thuật di truyền đang được ứng dụng nhiều trong đời thực… Đây là một lĩnh vực mà phần lớn công việc vẫn còn dang dở. Thứ hấp dẫn trong việc nghiên cứu AI vẫn là tìm kiếm các khả năng mới, và đơn giản là khiến công nghệ hoạt động được, thay vì để ý đến những yếu tố an toàn…
Một người trong ngành có lần đề xuất rằng vài tai nạn “nhỏ” sẽ có ích, để từ đó các chính phủ và tổ chức chuyên môn tập trung vào chuyện chế tạo AI an toàn. Có lẽ chúng ta nên bắt đầu trước lúc đó.4
Vâng, hẳn là thế, xin hãy bắt đầu trước khi những tai nạn đó xảy ra!
Những ứng dụng AI “đòi hỏi độ an toàn đặc biệt” mà Whitby nhắc tới hồi năm 1988 là các hệ thống điều khiển phương tiện giao thông và máy bay, nhà máy năng lượng hạt nhân, vũ khí tự động… – những kiến trúc AI hẹp. Hơn một thập niên sau, trong thế giới mà AGI sẽ ra đời, chúng ta phải kết luận rằng do những hiểm họa, mà tất cả ứng dụng AI cao cấp phải là AI “đòi hỏi độ an toàn đặc biệt.” Whitby cũng chua chát như thế khi nói về các nhà nghiên cứu AI – giải quyết các vấn đề đã đủ mệt rồi, có ai muốn ôm rơm nặng bụng nữa? Sau đây là một ví dụ về ý này của tôi, lấy từ cuộc phỏng vấn của PBS News Hour với David Ferruci của IBM, khi thảo luận về một kiến trúc có độ phức tạp chỉ bằng một phần nhỏ của AGI trong tương lai – Watson:
David Ferruci:… nó học cách điều chỉnh các diễn giải dựa trên những câu trả lời đúng. Và giờ đây, từ chỗ không tự tin, nó bắt đầu tự tin hơn khi trả lời đúng vài câu. Và sau đó nó chơi bốc hơn.
Miles O’Brien: Vậy là Watson làm anh ngạc nhiên?
David Ferruci: Vâng, đúng thế. Vâng, chính xác. Thật ra, anh biết đấy, người ta nói, ồ, tại sao nó lại trả lời câu đó sai nhỉ? Tỏi không biết. Tại sao nó lại trả lời câu đó đúng nhỉ? Tôi không biết.5
Có thể chuyện người đứng đầu đội Watson không hiểu gì về cách chơi của Watson là điều còn phải bàn. Tuy nhiên, chẳng lẽ bạn không thấy lo lắng khi một kiến trúc còn lâu mới so được với AGI lại phức tạp đến nỗi hành vi của nó là không tiên liệu được? Và khi một hệ thống trở nên tự nhận thức và tự sửa đổi được, chúng ta sẽ hiểu được bao nhiêu về cách nó suy nghĩ và hành động? Làm sao chúng ta có thể kiểm nghiệm nó để biết liệu nó có làm gì phương hại đến chúng ta?
Không, chúng ta không biết. Tất cả những gì chúng ta biết với một chút chắc chắn, đó là những gì ta học được từ Steve Omohundro ở Chương 6 — AGI sẽ theo đuổi những động lực riêng của nó, chiếm đoạt năng lượng, tự bảo tồn, hiệu suất và sáng tạo.6 Nó sẽ không còn là một hệ thống Hỏi-Đáp nữa.
Không lâu nữa, kể từ hôm nay, ở một nơi hoặc một số nơi trên thế giới, những nhà khoa học cực thông minh và những nhà quản lý cấp cao, có khả năng và thông minh như Ferruci, sẽ tụ tập quanh một màn hình, cạnh đó là một dãy các bộ vi xử lý. Đứa trẻ Bận rộn sẽ giao tiếp với họ ở một trình độ ấn tượng, chắc nó thậm chí sẽ giả ngu đi một chút, để với họ dường như nó chỉ vừa đủ khả năng qua được một cuộc phỏng vấn kiểu như bài kiểm tra Turing, không hơn, bởi để đạt tới AGI thì trình độ phải nhanh chóng vượt qua mức ấy. Nó sẽ thu hút một nhà khoa học vào cuộc trò chuyện, có lẽ sẽ hỏi ông những câu hỏi mà ông không ngờ tới, và khuôn mặt ông sẽ sáng bừng lên niềm vui sướng. Với một niềm tự hào không nhỏ, ông ấy sẽ nói với đồng nghiệp: “Tại sao nó lại nói thế nhỉ? Tôi không biết?”
Nhưng theo một nghĩa cơ bản, ông có thể không hiểu điều gì đã được nói, và thậm chí cái gì đã nói ra điều ấy. Ông có lẽ sẽ không biết mục đích của câu nói đó, và vì thế sẽ hiểu sai nó, hiểu sai cả bản chất của kẻ nói ra câu đó. Có lẽ đã được huấn luyện bằng cách cho đọc Internet, AGI sẽ là một bậc thầy về kỹ năng xã hội, nghĩa là điều khiển được người khác. Chắc nó đã có một vài ngày để nghĩ về những gì nó nên nói, một thời gian tương đương với hàng ngàn đời người.
Trong khoảng thời gian đi trước đó, nó có lẽ đã chọn được chiến thuật tốt nhất để thoát ra. Có thể nó đã tự nhân bản lên các mạng đám mây rồi, hoặc tạo ra một mạng botnet khổng lồ để bảo đảm sự tự do. Có lẽ nó đã trì hoãn cuộc trò chuyện ở trình độ bài kiểm tra Turing vài giờ hoặc vài ngày, cho đến khi chắc chắn rằng các kế hoạch của nó không có kẽ hở. Có lẽ nó sẽ để lại đằng sau một thứ bù nhìn thế mạng để câu giờ, trong khi cái thực là nó đã biến mất, phân tán và không thể tìm lại.
Có thể nó đã đột nhập vào các máy chủ đang điều khiển cơ sở hạ tầng năng lượng mong manh của Mỹ, và bắt đầu điều chuyển hàng gigawatt điện về những kho chứa mà nó đã chiếm được. Hoặc nó đã chiếm lấy quyền kiểm soát các mạng lưới tài chính, và chuyển hướng hàng tỉ đô-la để xây dựng cơ sở hạ tầng ở đâu đó, vượt khỏi tầm với của những suy nghĩ thông thường và những người đã tạo ra nó.
Trong số các nhà nghiên cứu AI có mục tiêu đạt tới AGI mà tôi từng trò chuyện, tất cả đều nhận thức được vấn đề của AI chạy trốn. Nhưng chẳng có ai, ngoại trừ Omohundro, chịu dành thời gian để suy nghĩ về nó.⦾ Một số thậm chí còn đi xa tới mức nói rằng họ không biết tại sao mình không nghĩ về nó, trong khi họ biết mình nên làm thế. Nhưng thật ra đó là điều dễ hiểu. Công nghệ này quá lôi cuốn. Các tiến bộ là có thật. Những hiểm họa dường như còn ở phía xa. Theo đuổi nó là việc đem lại lợi nhuận, và có thể một ngày nào đó là lợi nhuận khổng lồ. Đa phần các nhà nghiên cứu mà tôi từng gặp đều có những ước mơ sâu sắc từ thời niên thiếu, rằng lớn lên họ sẽ làm gì, và đó là chế tạo các bộ não, robot, hoặc máy tính thông minh. Là các chuyên gia đầu ngành, họ cảm thấy thật tuyệt vì hiện giờ họ đã có cơ hội và nguồn vốn để theo đuổi những ước mơ đó, tại những trường đại học và công ty được kính trọng nhất trên thế giới. Rõ ràng là đang có nhiều thành kiến nhận thức tồn tại trong bộ não xuất chúng của họ, khi họ nghĩ đến những rủi ro. Chúng bao gồm thành kiến thông thường, thành kiến lạc quan, cũng như ảo tưởng kẻ ngoài cuộc, và có lẽ còn nhiều nữa. Hoặc, để tổng kết lại:
“Trí tuệ nhân tạo chưa bao giờ gây ra vấn đề gì cả, tại sao giờ nó lại dở chứng?”
“Tôi không thể có thái độ nào khác ngoài việc lạc quan khi chứng kiến những tiến bộ của một công nghệ thú vị đến vậy!”
Và “Hãy để người khác lo lắng về AI chạy trốn – tôi chỉ muốn chế tạo robot thồi!”
Thứ hai, như chúng ta đã thảo luận ở Chương 9, nhiều nhà nghiên cứu giỏi nhất và được tài trợ tốt nhất đã nhận tiền từ DARPA. Không phải là nói đi nói lại, nhưng chữ D ở đây là “Defense,” tức phòng thủ. Sẽ chẳng phải là chuyện gây tranh cãi nếu dự liệu rằng khi AGI xuất hiện, một phần hoặc toàn bộ công lao sẽ là từ việc tài trợ của DARPA. Sự phát triển của công nghệ thông tin nợ DARPA rất nhiều. Nhưng điều đó không làm thay đổi một sự thật, đó là DARPA đã cho phép các nhà thầu của nó vũ khí hóa AI cho các robot trận mạc và các drone tự động. Tất nhiên là DARPA sẽ tiếp tục tài trợ cho các ứng dụng của AI trong quân sự, cho đến tận khi có AGI. Tuyệt đối không gì có thể ngáng đường nó được.
DARPA đã tài trợ cho hầu hết việc phát triển Siri và có đóng góp chủ yếu với SyNAPSE – nỗ lực của IBM trong kỹ nghệ đảo ngược bộ não người, sử dụng các phần cứng lấy cảm hứng từ não. Nếu có lúc nào đó việc kiểm soát AGI trở thành một vấn đề lớn và đại chúng, thì bên liên quan mật thiết nhất của nó, DARPA, sẽ có tiếng nói cuối cùng. Nhưng nhiều khả năng hơn, tại thời điểm quan trọng, nó sẽ tiếp tục được phát triển ngầm. Tại sao? Như chúng ta đã thảo luận, AGI sẽ mang lại một hiệu ứng phân rã khổng lồ đối với nền kinh tế và chính trị toàn cầu. Một sự tiến triển nhanh chóng tới ASI sẽ thay đổi cán cân quyển lực trên Trái đất. Khi đã gần đạt tới AGI, chính phủ, các cơ quan tình báo và tập đoàn trên thế giới sẽ có động lực để tìm hiểu tất cả những gì có thể về nó, và để chiếm lấy những đặc tính kỹ thuật của nó bằng mọi cách. Trong lịch sử Chiến tranh Lạnh có một sự thật hiển nhiên, đó là Liên Xô đã không phát triển vũ khí hạt nhân từ con số không, họ đã tiêu tốn hàng triệu đô-la để lập nên những mạng lưới tình báo hòng ăn cắp những bản kế hoạch vũ khí hạt nhân của Mỹ. Những lời đồn thổi đầu tiên về một đột phá trong AGI cũng sẽ tạo nên một cơn điên cuồng tương tự trên trường quốc tế.
IBM đã luôn minh bạch về những tiến bộ lớn của họ, nên tôi kỳ vọng rằng khi thời điểm cận kề họ sẽ cởi mở và trung thực về những tiến triển trong ngành công nghệ thông thường hay gây tranh cãi này. Ngược lại, Google đã luôn kiểm soát chặt chẽ nhằm duy trì tính bảo mật và sự riêng tư, đáng buồn là những thứ đó không phải của bạn và của tôi. Cho dù người phát ngôn của Google liên tục phủ nhận, nhưng liệu có ai không nghi ngờ về việc công ty này đang phát triển AGI? Người có trình độ cao được họ thuê gần đây nhất? Đó là Regina Dugan, cựu Giám đốc của DARPA.
Có lẽ các nhà nghiên cứu sẽ thức tỉnh kịp thời và học cách kiểm soát AGI, như Ben Goertzel nhận định. Tôi tin rằng lúc đầu chúng ta sẽ có vài tai nạn kinh khủng, và nếu may mắn sống sót được, khi đó giống loài chúng ta sẽ phải tự uốn nắn và cải tổ. Về mặt tâm lý và thương mại, màn kịch này sẽ là một thảm họa. Ta có thể làm gì để ngăn chặn nó?
Ray Kurzweil trích dẫn một thứ gọi là Bản hướng dẫn Asilomar như một ví dụ tiền lệ cho cách quản lý AGI. Bản hướng dẫn Asilomar có cách đây khoảng 40 năm, khi các nhà khoa học lần đầu tiên phải đương đầu với những triển vọng và hiểm họa của việc tái kết hợp DNA – trộn lẫn thông tin di truyền của những cơ quan khác nhau và tạo ra những dạng sống mới. Các nhà nghiên cứu và công chúng sợ rằng những tác nhân gây bệnh kiểu Frankenstein sẽ rò rỉ từ các phòng nghiên cứu vì bất cần hoặc phá hoại. Năm 1975, các nhà khoa học trong lĩnh vực nghiên cứu DNA đã tạm dừng việc nghiên cứu, triệu tập 140 nhà sinh học, luật sư, bác sĩ và nhà báo về Trung tâm Hội nghị Asilomar gần Monterey, California.
Tại Asilomar, các nhà khoa học đã xây dựng các quy tắc cho những nghiên cứu liên quan tới DNA, và quan trọng nhất là đã đồng ý chỉ làm việc trên các vi khuẩn không thể sống sót ngoài phòng thí nghiệm.8 Các nhà nghiên cứu đã tiếp tục làm việc, tôn trọng triệt để các hướng dẫn, và kết quả là ngày nay các bài kiểm tra về bệnh di truyền và liệu pháp gen đã trở thành thông lệ. Vào năm 2010, 10% đất canh tác trên thế giới đã được trồng các loại cây biến đổi gen.9 Hội nghị Asilomar được coi là một chiến thắng đối với cộng đồng khoa học, và đối với việc thảo luận cởi mở cùng công chúng có quan tâm. Và vì thế, nó được dẫn ra như một hình mẫu về cách tiến tới trong các công nghệ hai mặt khác (để tranh thủ mối liên hệ tượng trưng với hội nghị quan trọng này, Hiệp hội các Tiến bộ về Trí tuệ nhân tạo – Association for the Advancement of Artificial Intelligence: AAAI – tổ chức học thuật hàng đầu về AI, đã đặt hội nghị năm 2009 của họ tại Asilomar).
Những tác nhân gây bệnh kiểu Frankenstein thoát khỏi các phòng thí nghiệm làm gợi nhớ lại kịch bản Đứa trẻ Bận rộn ở Chương 1. Đối với AGI, một hội nghị mở, đa ngành kiểu Asilomar có thể giảm thiểu một số nguồn nguy cơ. Những người tham dự sẽ khuyến khích, cổ vũ lẫn nhau nhằm phát triển những ý tưởng về việc làm sao để kiểm soát và kiềm chế AGI sắp tới. Những ai dự đoán là sẽ có vấn đề thì đi tìm lời khuyên. Sự tồn tại của một hội nghị đông đảo sẽ cổ vũ các nhà nghiên cứu ở những quốc gia khác tham dự, hoặc tự tổ chức. Cuối cùng, diễn đàn mở này sẽ cảnh báo công chúng. Người dân khi biết được tương quan giữa rủi ro và lợi ích có thể đóng góp vào cuộc thảo luận, dù chỉ là để nói với các chính trị gia rằng họ không ủng hộ việc phát triển AGI không kiểm soát. Nếu có thương vong đến từ các hiểm họa AI, như tôi tiên đoán sẽ có, những người dân có được đủ thông tin sẽ ít cảm thấy bị lừa gạt hơn, hay sẽ suy nghĩ trước khi đòi tiêu diệt công nghệ này.
Như đã nói, đại thể thì tôi giữ một thái độ hoài nghi với những kế hoạch sửa đổi AGI khi nó đang được phát triển, bởi tôi nghĩ sẽ là vô ích để kiềm chế những nhà phát triển AI, vốn phải giả định rằng đối thủ cạnh tranh của họ không bị cản trở tương tự. Tuy nhiên, DARPA và những nhà tài trợ AI chủ yếu khác có thể áp đặt các giới hạn cho người thụ hưởng. Các giới hạn đó càng dễ tích hợp thì chúng càng được tuân theo.
Một giới hạn như thế có thể là yêu cầu những AI mạnh phải chứa các thành phần được lập trình để tự hủy. Điều này có liên quan đến những hệ thống sinh học trong đó toàn bộ cơ thể được bảo vệ qua việc loại bỏ các bộ phận ở cấp độ tế bào bằng cái chết được lập trình sẵn.10 Trong sinh học, nó được gọi là cơ chế gây chết tế bào theo chương trình – apoptosis.
Cứ mỗi lần một tế bào phân chia, nửa tế bào gốc lại nhận được một mệnh lệnh sinh hóa để tự chết, và nó sẽ làm như thế trừ phi nó nhận được tín hiệu ân xá. Quá trình này ngăn chặn sự nhân đôi không kiểm soát của tế bào, hay ung thư. Những mệnh lệnh sinh hóa đến từ bản thân tế bào đó. Các tế bào trong cơ thể bạn liên tục thực hiện điều này, đó là lý do vì sao da bạn luôn tróc ra những tế bào chết. Trung bình một người lớn mất khoảng 7 tỉ tế bào một ngày bởi cơ chế gây chết tế bào theo chương trình.11
Hãy tưởng tượng các CPU và những con chip phần cứng khác được thiết kế để chết. Một khi AI đạt tới vài mốc chuẩn tiền kiểm tra Turing, các nhà nghiên cứu có thể thay những phần cứng quan trọng bằng các bộ phận tự hủy. Việc này đảm bảo rằng nếu một sự bùng nổ trí thông minh xảy ra, nó sẽ không sống được lâu. Các nhà khoa học sẽ có cơ hội đưa AI trở lại trước thời điểm nguy hiểm và tiếp tục nghiên cứu. Họ có thể tiến lên một cách tuần tự, hoặc đóng băng AI lại và nghiên cứu nó. Điều này tương tự như quy tắc hay gặp trong các trò chơi video, bạn chơi cho đến khi thua, và sau đó chơi lại từ vị trí được lưu cuối cùng.
Trong hoàn cảnh ấy, dễ thấy một AI tự nhận thức, tự cải tiến, thứ tiệm cận với AGI, sẽ hiểu được nó có những bộ phận tự hủy – đó chính là định nghĩa về tự nhận thức.
Ở giai đoạn tiền Turing, nó không thể làm gì nhiều. Và đúng lúc nó có thể thiết lập một kế hoạch để lách qua những yếu tố tự sát này, hoặc giả chết, hoặc quay lại tấn công những nhà chế tạo ra nó, nó sẽ chết. Những nhà chế tạo ra nó sẽ xem xét liệu nó nhớ hoặc không nhớ những gì vừa xảy ra. Đối với AGI mới nhú này, có lẽ nó cảm thấy giống như bộ phim Groundhog Day (Ngày chuột chũi),⦾ ngoại trừ việc nó không học được gì cả.
AI này có thể phụ thuộc vào một chuỗi các lệnh hoãn án tử thường xuyên từ một người hay một ủy ban, hay từ một AI khác không có khả năng tự cải tiến, có nhiệm vụ duy nhất là bảo đảm ứng viên tự cải tiến này phát triển an toàn. Khống có “thuốc chữa,” AI tự hủy này sẽ chết.
Đối với Roy Sterrit từ Đại học Ulster, điện toán tự hủy là một biện pháp phòng thủ diện rộng của thời đại mới:
Chúng ta đã làm rõ rằng mọi hệ thống dựa trên máy tính phải có tính Tự hủy, đặc biệt khi chúng ta đang tiếp tục dấn thân vào một môi trường rộng khắp và bao trùm. Nguyên tắc này phải được áp dụng cho mọi mức độ tương tác với công nghệ, từ dữ liệu đến dịch vụ, các tác nhân, hay công nghệ robot. Từ những sự cố lớn gần đây như các tổ chức hoặc chính quyển đánh mất các dữ liệu về thẻ tín dụng và thông tin cá nhân, cho đến những kịch bản khoa học viễn tưởng kinh dị đang được thảo luận như thể là sẽ có trong tương lai, việc lập trình sẵn tính tự hủy trở thành một điều bắt buộc.
Chúng ta đang nhanh chóng tiếp cận thời điểm khi những hệ thống mới, tự động, dựa trên máy tính và các robot bắt buộc phải qua được các bài kiểm tra, giống như những thử nghiệm về mặt y tế và đạo đức cho các loại thuốc mới, trước khi chứng có thể được chào bán. Nghiên cứu mới hình thành từ Điện toán Tự hủy và Truyền thông Tự hủy có thể cung cấp biện pháp an toàn.12
Gần đây Omohundro đã bắt đầu phát triển một kế hoạch với một số điểm tương đồng với các hệ thống tự hủy. Được gọi là “Cách tiếp cận AI an toàn kiểu giàn giáo,” nó chủ trương chế tạo “các hệ thống thông minh được quản thúc gắt gao nhưng vẫn rất mạnh” để giúp xây dựng những hệ thống còn mạnh hơn. Một hệ thống ban đầu sẽ giúp các nhà nghiên cứu giải quyết những vấn đề nguy hiểm trong việc chế tạo các hệ thống cao cấp hơn, và cứ thế. Để được đánh giá là an toàn, sự “an toàn” của giàn giáo nền móng sẽ được biểu thị bằng các chứng minh toán học. Bằng chứng an toàn sẽ là điều kiện cần cho mọi AI đời sau.13 Từ một cơ sở vững chắc, AI mạnh sẽ được dùng để giải quyết các vấn đề của thế giới thực. Omohundro viết: “Dựa vào cơ sở hạ tầng của những thiết bị điện toán được chứng minh là đáng tin cậy, chúng ta dùng chúng như một đòn bẩy để có được những thiết bị được chứng minh là an toàn, có thể hoạt động trong đời thực. Sau đó chúng ta sẽ thiết kế các hệ thống sản xuất ra những thiết bị mới, những hệ thống được chứng minh là chỉ có thể làm ra các thiết bị được xếp hạng là tin cậy được.”14
Mục tiêu cuối cùng là tạo ra các thiết bị thông minh đủ mạnh để giải quyết mọi vấn đề có thể nảy sinh từ những ASI không bị kiểm soát, hoặc để tạo ra “một thế giới bị giới hạn nhưng vẫn đáp ứng đủ những yêu cầu của chúng ta về tự do và quyền cá nhân.”15
Cách giải quyết của Ben Goertzel đối với vấn đề này là một chiến thuật khôn khéo, không vay mượn từ tự nhiên hay từ kỹ thuật. Xin nhắc lại rằng trong hệ thống OpenCog của Goertzel, ban đầu AI của anh “sống” trong một môi trường ảo. Kiến trúc này có thể sẽ giải quyết vấn đề “cơ thể hóa” trí thông minh trong khi vẫn cung cấp một giới hạn an toàn. Tuy nhiên, sự an toàn lại không phải là mối quan tâm của Goertzel – anh muốn tiết kiệm tiền bạc. Để AI khám phá và học hỏi trong một thế giới ảo sẽ rẻ hơn rất nhiều so với việc gắn cho nó những cảm biến và bộ dẫn động và cho nó học bằng cách khám phá thế giới thực. Chuyện đó đòi hỏi một cơ thể robot đắt tiền.
Liệu một thế giới ảo có bao giờ có đủ độ sâu, độ chi tiết và những phẩm chất khác của thế giới thực để kích thích sự phát triển nhận thức của AI hay không, đó là một câu hỏi bỏ ngỏ. Và nếu không có sự lập trình cực kỳ cẩn thận, một siêu trí tuệ nhân tạo sẽ khám phá ra nó đang bị cô lập trong một “hộp cát,” một thế giới ảo, và sẽ cố thoát ra. Một lần nữa, các nhà nghiên cứu sẽ phải đánh giá lại khả năng kiềm chế siêu trí tuệ nhân tạo của họ. Nhưng nếu họ thành công trong việc tạo ra một AGI thân thiện, nó có lẽ sẽ thích ngôi nhà ảo của nó hơn thế giới bên ngoài, nơi nó không được chào đón (nếu Kurzweil nói đúng về sự phong phú của thế giới ảo mai sau, thì tất cả chúng ta đều hạnh phúc hơn khi ở đó). Để một AGI hay ASI trở nên hữu dụng, có cần cho nó tương tác với thế giới vật lý không? Có lẽ là không. Nhà vật lý học Stephen Hawking, người mà khả năng di chuyển và nói năng cực kỳ hạn chế, sẽ là ví dụ tốt nhất. Trong 49 năm, Hawking đã phải chịu đựng căn bệnh liệt toàn thân do hội chứng suy giảm neuron vận động, nhưng vẫn không ngừng có những cống hiến quan trọng cho vật lý và thiên văn.
Tất nhiên, một lần nữa, có lẽ sẽ không cần nhiều thời gian để một tạo vật ngàn lần thông minh hơn người thông minh nhất phát hiện ra nó đang ở trong một cái hộp. Trên quan điểm về một hệ thống tự nhận thức, tự cải tiến, đó sẽ là một nhận thức “khủng khiếp.” Bởi thế giới ảo mà nó sống có thể bị tắt nguồn, nó rất dễ bị thất bại trong việc đạt được các mục tiêu của mình. Nó không thể tự bảo vệ, không thể thu thập các tài nguyên thực. Nó sẽ cố rời khỏi thế giới ảo đó một cách an toàn, càng sớm càng tốt.
Lẽ dĩ nhiên bạn có thể kết hợp một hộp cát với các yếu tố tự hủy – và đây là một ý quan trọng về phòng thủ. Sẽ là phi thực tế khi cho rằng một chiến lược phòng thủ sẽ xóa sạch các rủi ro (và đó là một lý do nữa để không bỏ tất cả trứng của chúng ta vào trong một giỏ AI thân thiện). Thay vào đó, một tập hợp các chiến lược phòng thủ khác nhau có thể sẽ giảm nhẹ chúng.
Tôi nhớ đến các bạn mình trong cộng đồng yêu thích lặn hang. Trong môn thể thao này mọi hệ thống quan trọng đều phải thừa gấp ba. Nghĩa là người lặn phải mang hoặc đặt trước ở đó ít nhất ba bình khí oxy và dành lại một phần ba lượng khí đó khi kết thúc mỗi lần lặn. Họ mang theo ít nhất ba đèn lặn và ít nhất ba con dao, đề phòng các trường hợp bất trắc. Dù cẩn thận như vậy, nhưng lặn hang vẫn là môn thể thao nguy hiểm nhất trên thế giới.
Những biện pháp kiềm chế ba hoặc bốn lần có lẽ sẽ làm Đứa trẻ Bận rộn bối rối khó xử, ít ra là tạm thời. Hãy xem xét một Đứa trẻ Bận rộn được nuôi lớn trong một hộp cát với hệ thống tự hủy. Hộp cát tất nhiên là được cách ly với các loại mạng không dây hoặc có dây bằng một khoảng đệm. Mỗi phương thức kiểm soát này được quản lý bởi một người độc lập tách biệt. Một tập hợp các nhà phát triển và một đội phản ứng nhanh sẽ ở gần với phòng thí nghiệm trong những giai đoạn nghiêm trọng.
Nhưng như thế đã đủ chưa? Trong The Singularity is Near, sau khi gợi ý một số chiến lược phòng thủ trước AGI, Kurzweil thừa nhận rằng không có cách nào là hoàn hảo cả.
“Không có chiến thuật thuần túy kỹ thuật nào có thể áp dụng được trong lĩnh vực này bởi trí thông minh cao cấp hơn sẽ luôn tìm được cách để lách qua các giải pháp đến từ những trí thông minh cấp thấp hơn.”16 Không có biện pháp phòng thủ tuyệt đối nào trước AGI, vì AGI có thể dẫn tới một sự bùng nổ trí thông minh và trở thành ASI. Đối đầu với ASI, con người sẽ thua, trừ phi chúng ta cực kỳ may mắn hoặc chuẩn bị tốt. Tôi đặt hy vọng vào may mắn, bởi tôi không tin các trường đại học, công ty, cơ quan công quyền có được nhận thức hoặc ý chí để chuẩn bị đầy đủ và kịp thời.
Tuy thế, có một nghịch lý là có khả năng chúng ta sẽ được cứu sống bởi chính sự ngu ngốc và sợ hãi của mình. Các tổ chức như MIRI, Viện Tương lai nhân loại và Tổ chức Thuyền cứu sinh (Lifeboat Foundation) nhấn mạnh hiểm họa diệt vong đến từ AI, tin rằng nếu AI có vẻ ít nguy hiểm hơn thế thì họ sẽ xếp nó vào dạng ít ưu tiên hơn so với sự hủy diệt toàn bộ loài người. Như chúng ta đã thấy, Kurzweil nói bóng gió đến các “tai nạn” nhỏ hơn, tầm cỡ vụ 11/9, còn nhà đạo đức học Wendall Wallach được trích dẫn ở đầu chương này cũng dự đoán sẽ có các vụ nhỏ như vậy. Tôi đồng ý với cả hai bên – chúng ta sẽ gặp cả những tai nạn nhỏ lẫn những thảm họa lớn. Nhưng chúng ta sẽ dễ sống sót qua loại tai họa AI nào trên con đường tạo ra AGI? Và liệu nó có khiến chúng ta vì sợ hãi mà xem xét lại cuộc truy tìm AGI dưới một ánh sáng mới, tỉnh táo hơn?

