Phát Minh Cuối Cùng - Chương 10

10

Những Người Theo Thuyết

Singularity

Khác với trí tuệ của chúng ta, cứ 18 tháng máy tính lại nhân đôi hiệu suất. Vậy chuyện chúng sẽ trở nên thông minh và chiếm lấy thế giới là mối nguy có thật.1

Stephen Hawking

nhà Vật lý Trong vòng 30 năm, chúng ta sẽ có những phương tiện công nghệ để tạo ra trí thông minh siêu nhân. Ngay sau đó, kỷ nguyên con người sẽ kết thúc. Có thể tránh được tiến trình như vậy không? Nếu không thể tránh khỏi, liệu con người có cách nào lèo lái nó để tồn tại?2

Vernor Vinge

tác gia, giáo sư, nhà Khoa học Máy tính Kể từ năm 2005, Viện nghiên cứu Trí thông minh Máy tính, tên cũ là Viện Singularity về Trí tuệ Nhân tạo, đều tổ chức Hội nghị thượng đỉnh Singularity thường niên. Trong hai ngày một loạt các diễn giả sẽ diễn thuyết cho khoảng 1.000 thành viên về bối cảnh lớn của Singularity – tác động của nó đến việc làm và nền kinh tế, sức khỏe và sự trường thọ, cùng những hệ quả đạo đức của nó. Diễn giả của Hội nghị năm 2011 tại thành phố New York bao gồm các huyền thoại khoa học như Stephen Wolfram của Mathematica, tỉ phú dot-com Peter Thiel, người vẫn thường tài trợ để những người trẻ đam mê công nghệ có thể không học đại học và khởi nghiệp, David Ferrucci của IBM, chủ nhiệm dự án DeepQA/Watson. Eliezer Yudkowsky luôn diễn thuyết, và thường sẽ có một hoặc hai nhà đạo đức học cũng như những người phát ngôn của các cộng đồng trường sinh⦾ và siêu hóa.⦾ Những người phái trường sinh khảo sát các công nghệ và liệu pháp cho phép con người sống mãi mãi. Những người phái siêu hóa suy nghĩ về phương thức sử dụng phần cứng và mỹ phẩm để tăng cường năng lực cũng như vẻ đẹp của con người, và… những cơ hội để sống mãi. Đứng trên tất cả những nhóm đó là Người khổng lồ của Singularity, đồng sáng lập Hội nghị thượng đỉnh Singularity, và là ngôi sao của mọi hội thảo, Ray Kurzweil.

Chủ đề của Hội nghị năm 2011 là máy tính DeepQA Watson của IBM, và Kurzweil đã trình bày một bài diễn thuyết tẻ ngắt về lịch sử của các chatbot⦾ và các hệ thống Hỏi-Đáp, có tên là “từ Eliza đến Watson.” Nhưng vào giữa cuộc nói chuyện, ông phấn chấn hẳn lên khi phản bác lại một bài tiểu luận vụng về tấn công giả thuyết Singularity của ông, thứ một phần do người đồng sáng lập Microsoft là Paul Allen chắp bút.

Kurzweil trông không thực sự khỏe – ông gầy, hơi ngập ngừng, trầm lắng hơn mọi khi. Ông không phải là kiểu diễn giả có khả năng nuốt trọn sân khấu hoặc thổi bùng nhiệt huyết. Ngược lại, ông có một tác phong nhẹ nhàng, hơi máy móc, loại tác phong dường như dành cho các cuộc thương lượng con tin hoặc đọc truyện đêm khuya. Nhưng nó lại rất hợp với những ý tưởng cách mạng ngẫu hứng mà ông vẫn nói đến. Trong thời đại của những tỉ phú dot-com mặc quần jean đi diễn thuyết, Kurzweil mặc loại quần dài màu nâu của thế hệ trước, cùng với giày lười có núm tua, áo khoác thể thao và đeo kính. Người ông không to cũng không nhỏ, nhưng gần đây bắt đầu có vẻ già, đặc biệt là khi so sánh với một Kurzweil đầy sinh lực trong ký ức của tôi. Ông mới chỉ 52 hoặc xấp xỉ như thế trong lần gần nhất tôi phỏng vấn ông, khi chưa bắt đầu ăn kiêng ít calo ngặt nghèo, hiện là một phần trong kế hoạch làm chậm quá trình lão hóa của ông. Với một chế độ được nghiên cứu kỹ lưỡng bao gồm ăn kiêng, tập thể dục, và uống các loại vitamin, Kurzweil muốn đẩy lùi tử thần cho đến khi công nghệ tìm được thứ thần dược mà ông chắc chắn nó sẽ xuất hiện.

“Tôi là một kẻ lạc quan. Tôi cần phải như thế, trong vai trò một nhà phát minh.”

Sau bài diễn thuyết, Kurzweil và tôi ngồi cạnh nhau trên những cái ghế kim loại trong một phòng thay đồ nhỏ ở tầng trên sân khấu. Một đoàn làm phim tài liệu đang chờ ở ngoài để phỏng vấn ông khi tôi đã xong. Chỉ một thập niên trước, khi ông còn là một nhà phát minh và tác giả chưa mấy tiếng tăm, tôi đã chiếm dụng ông trong ba giờ đồng hồ thú vị cùng với đội làm phim của mình; còn giờ ông là một nhân vật nổi tiếng mà tôi chỉ có thể ở cạnh chừng nào còn giữ được cánh cửa ra vào khép kín. Bản thân tôi cũng đã thay đổi – cuộc gặp đầu tiên đã khiến tôi choáng ngợp trước ý tưởng đưa bộ não của mình vào máy tính, như đã được mô tả trong Spiritual Machines. Những câu hỏi của tôi ngây thơ trong veo như bong bóng rượu champagne. Giờ thì tôi đã hoài nghi hơn, và hiểu biết nhiều hơn về những mối nguy mà đã không còn khiến bậc thầy này thấy đáng quan tâm.

“Tôi đã thảo luận tương đối nhiều về những hiểm họa trong The Singularity is Near,” Kurzweil phản đối khi tôi hỏi liệu ông có thổi phồng những triển vọng và dìm các mối nguy của Singularity xuống. “Chương 8 viết về sự gắn kết sâu sắc giữa triển vọng và hiểm họa của GNR (genetics, nanotechnology, robotics – công nghệ gen, công nghệ nano, công nghệ robot) và tôi đã mô tả khá chi tiết về những mặt trái của ba lĩnh vực công nghệ nói trên. Và mặt trái của công nghệ robot, thật ra là AI, thứ có ảnh hưởng sâu rộng nhất vì trí thông minh là hiện tượng quan trọng nhất trên thế giới. Về bản chất, không tồn tại một sự bảo vệ tuyệt đối nào trước AI mạnh cả.”

Cuốn sách của Kurzweil có lưu ý về các hiểm họa của kỹ thuật di truyền và công nghệ nano, nhưng nó chỉ có vài trang yếu ớt về AI mạnh, cái tên cũ của AGI. Và trong chương đó ông cũng tranh luận rằng sự từ bỏ hay quay lưng lại với một số công nghệ vì chúng quá nguy hiểm, như Bill Joy và một số người khác đã chỉ ra, không chỉ là một ý tưởng tồi mà còn vô đạo đức. Tôi đồng ý rằng từ bỏ là bất khả thi. Nhưng còn vô đạo đức?

“Việc từ bỏ là vô đạo đức bởi nó sẽ cướp đi của chúng ta những lợi ích sâu sắc. Con người hiện vẫn có nhiều nỗi đau khổ mà họ có thể vượt qua, và vì thế việc đó là một sứ mệnh đạo đức. Thứ hai, sự từ bỏ đòi hỏi một hệ thống toàn trị để cấm công nghệ này. Thứ ba và cuối cùng, không thể từ bỏ được. Nó sẽ chỉ làm cho các công nghệ này phát triển trong thế giới ngầm, nơi mà những người thực hiện nó sẽ vô trách nhiệm và không bị giới hạn. Những nhà khoa học có trách nhiệm, có nhiệm vụ phát triển các hệ thống phòng thủ, sẽ không có công cụ cần thiết để làm việc này. Và điều đó thật ra còn nguy hiểm hơn.”

Kurzweil phê phán cái gọi là Nguyên tắc Phòng ngừa, một đề xuất của phong trào môi trường, cũng như sự từ bỏ, nó chỉ là một cách né tránh cuộc đối thoại này. Nhưng điều quan trọng là phải nhắc lại nguyên tắc đó để xem tại sao cách lý luận của nó không có trọng lượng. Nguyên tắc Phòng ngừa nói rằng: “Nếu những hậu quả của một hành động là không rõ ràng, nhưng được một số nhà khoa học dự đoán rằng nó ẩn chứa dù chỉ một rủi ro nhỏ có tác động tiêu cực sâu sắc, thì không làm việc đó sẽ tốt hơn là chấp nhận rủi ro.”3 Nguyên tắc này thường không được áp dụng hoặc nếu có thì cũng không chặt chẽ. Nó sẽ dừng bất cứ công nghệ nào được tuyên bố là nguy hiểm nếu “một số nhà khoa học” sợ nó, dù cho họ không liên quan gì đến dây chuyền những sự kiện dẫn tới kết cục mà họ lo ngại.

Nguyên tắc Phòng ngừa và sự từ bỏ không có triển vọng thành công khi áp dụng vào AGI. Cả hai phương sách này đều không thể thực hiện được, trừ phi có một tai nạn khủng khiếp trên con đường tới AGI làm chúng ta sợ cứng người. Những dự án AGI mạnh nhất của các công ty và chính phủ sẽ tìm kiếm ưu thế cạnh tranh của sự bảo mật – chúng ta đã thấy chuyện này ở các công ty ẩn danh rồi. Sẽ có rất ít quốc gia hoặc công ty chịu từ bỏ lợi thế này, kể cả nếu việc phát triển AGI được đặt ngoài vòng pháp luật. (Trên thực tế, Google có nguồn tài chính và ảnh hưởng ngang với một quốc gia/dân tộc hiện đại, do vậy để hình dung các nước khác sẽ làm gì, hãy theo dõi Google). Công nghệ cần thiết cho AGI hiện diện khắp nơi và dùng được vào nhiều mục đích và ngày càng thu hẹp về quy mô. Rất khó, nếu không nói là không thể, không chế sự phát triển của nó.

Nhưng liệu có vô đạo đức khi không phát triển AGI, như Kurzweil đã đề ra, lại là chuyện khác. Thứ nhất, các lợi ích của AGI là vô cùng to lớn, nhưng chỉ khi chúng ta còn sống mà hưởng chúng. Và đó là một chữ nếu cực to khi hệ thống đã tiến bộ đủ để khởi phát sự bùng nổ trí thông minh. Lập luận của Kurzweil là có vấn đề, khi cho rằng các lợi ích chưa chứng minh được sẽ lớn hơn các rủi ro chưa chứng minh được. Tôi đã nói với ông rằng tôi nghĩ sẽ là vô đạo đức nếu phát triển các công nghệ như AGI mà không đồng thời giáo dục càng nhiều người càng tốt về các hiểm họa của nó. Tôi nghĩ rằng các hiểm họa kinh khủng của AGI, hiện đã được nhiều nhà nghiên cứu tài năng và được tôn trọng công nhận, đã được xác nhận rõ ràng thay vì những lợi ích giả định về Singularity của ông – máu được làm sạch nhờ công nghệ nano, các bộ não nhanh và mạnh hơn, sự bất tử… Sự chắc chắn duy nhất về Singularity, đó là nó mô tả một thời kỳ mà trong đó, do sức mạnh của LOAR, chúng ta sẽ có những máy tính nhanh, thông minh, hoạt động trong mọi lĩnh vực của đời sống và cả trong cơ thể chúng ta. Sau đó trí thông minh máy móc xa lạ sẽ khiến trí thông minh vốn có của chúng ta phải trầm trồ sợ hãi. Liệu chúng ta có thích nó không lại là một chuyện khác.

Nếu bạn đọc Kurzweil kỹ càng, bạn sẽ thấy các lợi ích chủ yếu bắt nguồn từ IA, và IA là cần thiết để theo kịp với tốc độ thay đổi nhanh và sắc bén. Như đã lập luận, tôi nghĩ rằng nó sẽ đảo ngược niềm đam mê công nghệ của con người, thậm chí dẫn tới chán ghét.

Và điều đó thậm chí không phải là mối lo sợ chính của tôi, vì tôi không nghĩ chúng ta đến được thời điểm đó. Tòi nghĩ rằng những công cụ quá mạnh vượt quá tầm kiểm soát sẽ khiến chúng ta dừng lại giữa đường. Tôi nói với Kurzweil điều này và ông phản biện lại bằng vài lý luận cũ mèm – những luận điểm lạc quan, nhân cách hóa giống hệt như thứ ông đã nói với tôi 10 năm trước.

“Việc có một thực thể rất thông minh và vì lý do nào đó lại muốn hủy diệt chúng ta là một kịch bản tiêu cực. Nhưng bạn phải hỏi tại sao lại có một thứ như thế? Trước hết tôi vẫn giữ quan điểm rằng chúng ta sẽ không đối đầu với máy móc, bởi những máy móc này không thuộc về một nền văn minh khác, mà là một phần của nền văn minh con người. Chúng là những công cụ mà chúng ta sử dụng, chúng là một thứ tay chân của chúng ta, và ngay cả khi chúng ta trở thành công cụ thì chúng vẫn chỉ là một thứ tiến hóa từ nền văn minh con người. Đó không phải là cuộc ngoại xâm của những máy móc đến từ sao Hỏa. Chúng ta sẽ không phải phân vân các giá trị của chúng là gì.”

Như chúng ta đã thảo luận, việc giả định rằng AGI sẽ chỉ giống như chúng ta chính là sự gán ghép những giá trị của con người vào máy móc thông minh, thứ có trí tuệ và giá trị của nó theo một cách rất khác biệt với con người. Mặc dù người tạo ra chúng có ý định tốt, nhưng ở hầu hết, nếu không muốn nói là tất cả các AGI, chuyện hệ thống hoạt động thế nào sẽ là một điều quá mơ hồ và quá phức tạp với chúng ta để có thể hoàn toàn hiểu hoặc dự đoán. Xa lạ, không thể hiểu được, và cuối cùng là việc một số AGI sẽ được tạo ra với ý đồ giết người, vì đừng quên rằng ở Mỹ, các cơ quan quốc phòng là những nhà đầu tư tích cực nhất. Chúng ta nên thừa nhận rằng điều này cũng đúng ở các quốc gia khác.

Tôi chắc chắn rằng Kurzweil đã xem xét chuyện AGI không cần phải được thiết kế với mục đích làm hại con người để hủy diệt nhân loại, chỉ cần chúng phớt lờ con người là đủ. Như Steve Omohundro cảnh báo, thiếu đi sự lập trình cẩn trọng, AI cao cấp sẽ sở hữu các động lực và mục tiêu mà chúng ta không có.4 Như Eliezer Yudkowsky nói, nó có thể muốn sử dụng các phân tử của cơ thể con người vào mục đích khác.5 Và như chúng ta đã thấy, AI thân thiện, thứ sẽ bảo đảm AGI đầu tiên và tất cả các con cháu của nó sẽ cư xử tốt, là một khái niệm còn xa mới thành hiện thực.

Kurzweil không dành nhiều thời gian cho khái niệm AI thân thiện. “Chúng ta không thể chỉ nói: chúng tôi sẽ đưa cái mã phần mềm nhỏ này vào các AI, và nó sẽ làm cho chúng an toàn,” ông nói. “Ý tôi là, điểm mấu chốt ở chỗ các mục tiêu và ý định của trí tuệ nhân tạo sẽ là gì. Chúng ta đang đối mặt với các thử thách làm nản lòng người.”6

Thật đau đầu khi nghĩ về AI không thân thiện – AGI được thiết kế với mục đích tiêu diệt kẻ thù, một hiện thực mà chúng ta sẽ phải sớm đối diện. “Tại sao lại có một thứ như thế?” Kurzweil hỏi. Bởi hàng tá tổ chức ở Mỹ sẽ thiết kế và chế tạo nó, các kẻ thù của Mỹ cũng vậy. Nếu AGI đã tồn tại ngày hôm nay, tôi không hề nghi ngờ chuyện nó sẽ sớm được đưa vào các loại robot chiến binh. DARPA có thể khăng khăng rằng không có gì phải lo lắng — AI được DARPA tài trợ sẽ chỉ giết các kẻ thù của chúng ta. Những người sản xuất nó sẽ cài đặt các khóa an toàn, chế độ an toàn, công tắc sát thương và các dấu hiệu bí mật. Chúng sẽ kiểm soát siêu trí tuệ nhân tạo.

Tháng 12/2011, một người Iran với chiếc laptop chạy một chương trình chia sẻ file đơn giản đã làm hỏng một drone Sentinel. Tháng 7/2008, một cuộc tấn công mạng nhắm vào Lầu Năm góc đã cho các kẻ tấn công quyền truy cập vào 24.000 tài liệu tối mật. Cựu Thứ trưởng Quốc phòng William J. Lynn III kể với tờ Washington Post rằng hàng trăm cuộc tấn công mạng vào Bộ Quốc phòng và các nhà thầu của nó đã khiến họ bị mất “những hệ thống nhạy cảm nhất, bao gồm các kỹ thuật điện tử hàng không, các công nghệ theo dõi, các hệ thống liên lạc vệ tinh và các giao thức bảo mật mạng.”7 Siêu trí tuệ nhân tạo sẽ không bị vô hiệu hóa nhờ những người không làm nổi một việc đơn giản là phòng thủ thành công trước các hacker con người.

Tuy nhiên, chúng ta có thể thu được một số nhận thức quan trọng từ lịch sử kiểm soát vũ khí. Kể từ sự ra đời của vũ khí hạt nhân, chỉ có Mỹ là đã dùng nó để chống lại một kẻ thù. Sức mạnh hạt nhân đã thành công trong việc né tránh tình huống Đảm bảo tiêu diệt lẫn nhau. Không quả bom hạt nhân nào bị phát nổ tình cờ, theo những gì chúng ta đã biết. Hồ sơ của việc quản lý hạt nhân là tốt (tuy mối nguy này vẫn còn tiếp diễn). Nhưng tôi có quan điểm thế này. Quá ít người biết rằng chúng ta cần phải có một cuộc thảo luận quốc tế về AGI, tương tự như những gì đã làm với vũ khí hạt nhân. Quá nhiều người nghĩ rằng biên giới của AI được vạch ra bởi những thứ vô hại như công nghệ tìm kiếm trên mạng, điện thoại thông minh, và bây giờ là Watson. Nhưng AGI thì gần với vũ khí hạt nhân hơn các trò chơi video nhiều.

AI là một công nghệ “kép,” một thuật ngữ dược dùng để mô tả các công nghệ ứng dụng trong cả dân sự và quân sự. Ví dụ, phản ứng phân hạch có thể thắp sáng hoặc hủy diệt các thành phố (hoặc cả hai trong trường hợp của Chernobyl và Fukushima Daiichi). Tên lửa được phát triển trong cuộc chạy đua thám hiểm vũ trụ đã tăng cường sức mạnh và độ chính xác của các loại tên lửa đạn đạo vượt đại châu. Công nghệ nano, công nghệ sinh học và kỹ thuật gen đều chứa đựng những triển vọng khổng lồ trong việc ứng dụng dân sinh, nhưng tất cả đều tiềm ẩn các hiểm họa khôn lường và có thể bị lạm dụng trong quân đội và khủng bố.

Khi Kurzweil nói mình là một người lạc quan, ông không ngụ ý rằng AGI sẽ chứng tỏ nó vô hại. Ý ông là sẽ phó mặc cho quá trình điều chỉnh tự nhiên của con người khi họ có các công nghệ nguy hiểm trong tay. Và đôi lúc con người sẽ phải chịu hậu quả.

“Có nhiều lời bàn luận về hiểm họa diệt vong,” Kurzweil nói. “Tôi sợ rằng các giai đoạn đau khổ còn dễ xảy ra hơn. Bạn biết đấy, 60 triệu người đã chết trong Thế chiến II. Các công cụ hủy diệt khủng khiếp mà chúng ta có lúc đó hiển nhiên đã làm trầm trọng số thương vong. Tôi tương đối lạc quan rằng chúng ta sẽ vượt qua được chuyện này. Tôi ít lạc quan hơn trong việc chúng ta có thể né tránh các thời kỳ đau khổ.”8

“Kể từ ngàn xưa khi bắt đầu có lửa, đã có câu chuyện về sự không thể tách rời giữa triển vọng và hiểm họa. Lửa làm chín thức ăn của chúng ta nhưng cũng đốt cháy làng mạc. Bánh xe đã được dùng vào việc tốt, việc xấu và mọi thứ ở giữa. Công nghệ là sức mạnh, và chính công nghệ đó có thể được dùng vào những mục đích khác nhau. Dưới trần gian, con người làm mọi thứ kể từ ân ái cho đến chiến tranh, và chúng ta sẽ tăng cường mọi hoạt động đó với những công nghệ mà chúng ta đã có, và chuyện đó sẽ còn tiếp diễn.”

Sự bất định là không thể tránh khỏi, và các tai nạn thì dễ xảy ra – khó mà phản bác điều này. Nhưng sự so sánh là khập khiễng – AI cao cấp hoàn toàn không giống với lửa hoặc bất cứ công nghệ nào khác. Nó sẽ có khả năng suy nghĩ, lập kế hoạch, và biến những nhà chế tạo ra nó thành đồ chơi. Không có bất kỳ một công cụ nào làm được những chuyện như thế. Kurzweil tin rằng: có một cách để giới hạn những khía cạnh nguy hiểm của AI, đặc biệt là ASI, đó là hợp nhất nó với con người qua sự tăng cường trí thông minh – IA. Ngồi trên chiếc ghế bằng kim loại không thoải mái, con người lạc quan đó nói: “Như tôi đã chỉ ra, AI mạnh sẽ nảy sinh từ nhiều cố gắng khác nhau và sẽ được hợp nhất một cách sâu sắc với cơ sở hạ tầng của nền văn minh con người. Thực vậy, nó sẽ được gắn chặt vào cơ thể và bộ não chúng ta. Vì thế, nó sẽ phản ánh những giá trị của chúng ta bởi nó sẽ là chúng ta.”

Và theo lập luận trên thì nó sẽ có độ “an toàn” giống như chúng ta vậy. Nhưng, như tôi đã nói với Kurzweil, Homo sapiens không hề đặc biệt vô hại khi giao tiếp với nhau, với các động vật khác hoặc với môi trường sống.

Ai có thể tin rằng con người với bộ não được tăng cường trí thông minh sẽ trở nên thân thiện và nhân từ hơn các máy móc siêu thông minh? Một người được tăng cường, được những người muốn trở thành như vậy gọi là biến nhân, có thể sẽ né tránh các vấn đề Động lực AI cơ bản của Omohundro. Nghĩa là, nó có thể sẽ tự nhận thức và tự cải tiến, nhưng cũng tự xây dựng trong nó một bộ quy tắc đạo đức mang tính nhân bản, thứ sẽ thay thế cho các động lực cơ bản mà Omohundro đã suy ra từ hình mẫu kinh tế tác nhân duy lý. Tuy nhiên, không giống như câu chuyện Flowers for Algernon (Hoa trên mộ Algernon)⦾, chúng ta không hề biết chuyện gì sẽ xảy ra đối với đạo đức của một người khi trí thông minh của anh ta được tăng lên mức siêu nhân. Có rất nhiều ví dụ về những người có trí thông minh trung bình đã gây chiến với gia đình, trường học, công việc và nơi họ sống. Các thiên tài cũng có khả năng tạo ra bạo động – trong phần lớn các trường hợp, các tướng lĩnh trên thế giới không phải là những kẻ ngu đần. Siêu trí tuệ nhân tạo rất có thể sẽ là một thứ khiến bạo lực leo thang. Nó có thể biến hận thù thành giết chóc, bất đồng quan điểm thành tai họa, như cách mà sự hiện diện của một khẩu súng có thể biến một vụ đánh lộn trở thành vụ giết người. Chúng ta đơn giản là không thể biết. Tuy vậy, sự tăng cường trí thông minh bằng ASI có một sự hiếu chiến được đặt trên cơ sở nguồn gốc sinh vật mà máy móc không có. Con người là một giống loài với bề dày lịch sử của việc tự bảo vệ, chiếm đoạt tài nguyên, chém giết công khai, và cả các động lực khác, những gì mà chúng ta chỉ mới giả định là có trong các máy móc tự nhận thức.

Và ai sẽ là người đầu tiên “hưởng lợi” từ thứ IA đó? Người giàu nhất? Chúng ta vẫn tin rằng giàu không có nghĩa là xấu, nhưng một nghiên cứu gần đây từ Đại học California tại Berkeley đề xuất điều ngược lại. Các thí nghiệm chỉ ra rằng những người thuộc giới thượng lưu giàu có sẽ “biểu thị các khuynh hướng ra quyết định vô đạo đức, chiếm đoạt tài sản của người khác, nói dối trong các cuộc thương lượng, gian lận để tăng khả năng giành giải thưởng, và tán thành cách cư xử bẩn thỉu ở công sở…”9 Không thiếu gì các ví dụ về những giám đốc và chính trị gia có tiếng, có quá trình thăng tiến dường như gắn liền với sự tha hóa đạo đức, nếu họ có đạo đức. Liệu những chính trị gia hay các doanh nhân có trở thành những người đầu tiên được tăng cường trí thông minh?

Hay những người đầu tiên sẽ là quân nhân? DARPA đang có vai trò lớn trong câu chuyện này, vậy không có gì ngạc nhiên nếu IA sẽ được áp dụng đầu tiên trên chiến trường hoặc ở Lầu Năm góc. Và DARPA sẽ muốn đòi lại tiền của nó nếu siêu trí tuệ nhân tạo làm cho các binh sĩ cực kỳ thân thiện.

IA có thể sẽ xảy đến trong một tương lai khi có những cách tốt hơn bây giờ để kiểm soát nó, với những biện pháp an toàn mà hiện chúng ta chưa tưởng tượng ra được. Có nhiều ASI có vẻ sẽ an toàn hơn là chỉ có một. Còn tốt hơn thế nếu ta có cách nào đó để theo dõi và quan sát AI, nhưng nghịch lý ở chỗ có lẽ thứ “tập sự” tốt nhất cho điều đó lại là AI. Chúng ta sẽ khảo sát các phương pháp phòng thủ trước ASI ở Chương 14. Tóm lại, IA không phải là giải pháp an toàn về đạo đức. Siêu trí tuệ nhân tạo có thể nguy hiểm chết người hơn bất cứ thứ vũ khí hoặc công nghệ nào hiện đang được kiểm soát nghiêm ngặt nhất.

Chúng ta sẽ phải phát triển song song với IA một khoa học để chọn lựa những ứng viên được tăng cường trí thông minh. Sự tự phụ của những người theo thuyết Singularity khi cho rằng bất cứ ai có đủ tiền trả đều sẽ được hưởng siêu trí tuệ nhân tạo qua con đường tăng cường bộ não, cũng đồng nghĩa với việc tất cả những người khác sẽ phải sống dưới ách thống trị của siêu trí tuệ nhân tạo độc ác đầu tiên đạt được bằng cách này.⦾ Đó là vì như chúng ta đã thảo luận, trong công cuộc phát triển AGI, ưu thế đi đầu mang tính quyết định. Người nào đạt tới AGI đầu tiên sẽ có khả năng tạo ra những điều kiện cần thiết cho một sự bùng nổ trí thông minh. Họ sẽ làm việc đó vì họ sợ rằng những đối thủ cạnh tranh chính của mình, dù là các công ty hay quân đội, sẽ làm điều tương tự, và họ không biết những đối thủ đó đã đến gần đích tới mức nào. Tôi nhận thấy có một khoảng cách khổng lồ giữa các nhà chế tạo AI và AGI, với nghiên cứu về mối nguy mà họ sẽ gặp phải. Một thiểu số các nhà chế tạo AGI mà tôi đã nói chuyện chưa từng đọc bất cứ công trình nào của MIRI, của Viện Tương lai nhân loại, của Viện Đạo đức và Công nghệ mới, hoặc của Steve Omohundro. Nhiều người không biết là có một cộng đồng đang lớn mạnh gồm những người quan ngại về sự phát triển của trí thông minh siêu nhân, những người đã thực hiện các nghiên cứu quan trọng để tiên liệu những hiểm họa khôn lường của nó. Trừ phi nhận thức này thay đổi, tôi tin chắc rằng họ sẽ để AGI nhảy vọt lên ASI mà không có các biện pháp đề phòng thảm họa kèm theo.

Sau đây là một ví dụ rõ ràng về chuyện đó. Vào tháng 8/2009 ở California, Hội Vì sự tiến bộ của trí tuệ nhân tạo (Association for the Advancement of Artificial Intelligence: AAAI) mời một nhóm cùng thảo luận về mối lo ngại đang lớn dần lên trong công chúng về chuyện các robot làm phản, sự riêng tư bị xâm phạm và các phong trào công nghệ có hơi hướng tôn giáo.

”Một thứ mới mẻ đã xuất hiện trong khoảng năm đến tám năm gần đây,” Eric Horvitz, nhà nghiên cứu nổi tiếng của Microsoft, người chủ trì cuộc họp, phát biểu. “Các nhà công nghệ đang đưa ra những viễn cảnh gần như mang tính tôn giáo, và theo một cách nào đó, các ý tưởng của họ cộng hưởng với ý tưởng tương tự trong sách Khải huyền… Tôi có cảm giác rằng sớm hay muộn chúng ta sẽ phải đưa ra một tuyên bố hoặc đánh giá nào đó, đáp lại mối quan ngại của những người đam mê công nghệ và những người rất quan tâm đến sự ra đời của máy móc thông minh.”11 Bất chấp lời hứa hẹn đó, cuộc gặp này là một cơ hội bị bỏ phí. Nó không rộng mở với công chúng hoặc báo chí, chẳng có nhà đạo đức học máy tính và nhà tư tưởng làm về đánh giá rủi ro nào đến cả. Chỉ có các nhà khoa học máy tính được mời tham gia các thảo luận. Chuyện này gần giống với việc yêu cầu các tay đua xe đặt ra giới hạn tốc độ trong nội thị. Một nhóm nhỏ bàn về Ba định luật về robot của Isaac Asimov, một dấu hiệu cho thấy cuộc thảo luận đạo đức này đã không có thông tin gì về một lượng lớn các công trình nghiên cứu đã vượt xa những khái niệm khoa học viễn tưởng đó. Hội thảo nhỏ hẹp của Horvitz đưa ra báo cáo thể hiện lòng hoài nghi về một sự bùng nổ trí thông minh, về Singularity, và về khả năng mất kiểm soát các hệ thống thông minh. Dù sao thì hội thảo cũng yêu cầu các nhà đạo đức học và tâm lý học tiếp tục nghiên cứu thêm, và chỉ rõ sự nguy hiểm của các hệ thống máy tính có độ phức tạp và không thể tiên liệu ngày càng tăng, bao gồm “… các hành vi nguy hại và không lường trước được của các hệ thống ra quyết định tự động hoặc bán tự động.”12 Tom Mitchell của Đại học Carnegie Mellon, người được DARPA tài trợ để tạo ra kiến trúc nhận thức chung (và AGI tiềm năng) được gọi là NELL, tuyên bố hội thảo này đã thay đổi quan điểm của ông. “Trước đó tôi rất lạc quan về tương lai của AI và nghĩ rằng Bill Joy và Ray Kurzweil tiên đoán không chính xác. Cuộc họp này làm tôi muốn phát ngôn nhiều hơn về các vấn đề đó.”13

Trong The Singularity is Near, Kurzweil đưa ra vài giải pháp cho vấn đề AI chạy trốn. Các giải pháp yếu ớt một cách đáng ngạc nhiên, đặc biệt là lại đến từ một người phát ngôn, một người vô hình trung đang độc quyền thuyết giáo về siêu trí tuệ nhân tạo. Nhưng ở một góc độ khác thì chúng không có gì đáng ngạc nhiên cả. Như tôi đã nói, có một xung đột không thể hóa giải giữa những người cuồng si sự bất tử với bất cứ thứ gì có khả năng giảm tốc, thử thách hoặc cản trở sự phát triển của những công nghệ sẽ biến giấc mơ của họ thành hiện thực. Trong các cuốn sách và bài giảng của mình, Kurzweil chỉ dùng một phần rất nhỏ sự nhạy bén của ông khi nói về sự nguy hiểm của AI và đưa ra rất ít giải pháp, thế nhưng ông vẫn nói rằng mình đã nghiên cứu kỹ vấn đề này. Tại thành phố New York, trong căn phòng thay đồ chật chội, ngoài cửa là một đội làm phim đang húng hắng ho, tôi tự hỏi, chúng ta nên chờ đợi gì từ chỉ một người? Có nên chờ đợi Kurzweil thấu hiểu những triển vọng và hiểm họa của Singularity rồi giảng giải cho chúng ta từng ly từng tí? Hay cá nhân ông phải khảo sát xa hơn những thành ngữ kiểu như “bản chất hai mặt không thể rút gọn hơn của công nghệ” và thấu hiểu thứ triết học sinh tồn được những người như Yudkowsky, Omohundro hay Bostrom xây dựng?

Không, tôi không nghĩ thế. Đây là một vấn đề mà tất cả chúng ta phải cùng nhau đối mặt, với sự trợ giúp của các chuyên gia.

Báo cáo nội dung xấu

Chi phí đọc tác phẩm trên Gác rất rẻ, 100 độc giả đọc mới đủ phí cho nhóm dịch, nên mong các bạn đừng copy.

Hệ thống sẽ tự động khóa các tài khoản có dấu hiệu cào nội dung.