Phát Minh Cuối Cùng - Chương 11
11
Cất Cánh Nhanh
Dù sao thì ngày qua ngày, máy móc đang tiến gần chúng ta hơn; ngày qua ngày, chúng ta đang trở nên quỵ lụy trước chúng; ngày càng nhiều người bị ràng buộc vào chúng như những nô lệ, ngày càng nhiều người cống hiến sức lực cả cuộc đời mình cho sự phát triển của cuộc đời máy móc. Sự trỗi dậy đơn giản chỉ là vấn đề thời gian, rồi thòi khắc đó sẽ tới khi những máy móc chiếm lấy quyền lực thực sự trên thế giới và sự hiện tồn của chúng là thứ mà không một ai có tư duy triết học thực sự lại có thể nghi ngờ, dù chỉ trong khoảnh khắc.
Samuel Butler
nhà văn, nhà thơ Anh thế kỷ 19 Hơn lúc nào hết trong lịch sử, nhân loại đang đối diện với một ngã rẽ. Một đường dẫn tới đau khổ và tuyệt vọng sâu sắc, đường còn lại dẫn tới diệt vong hoàn toàn, cầu cho chúng ta được sáng suốt để chọn lựa chính xác.
Woody Allen
đạo diễn nổi tiếng người Mỹ Cái cách mà I. J. Good khám phá ra sự bùng nổ trí thông minh không khác gì với cách Ngài Isaac Newton khám phá ra lực hấp dẫn. Tất cả những gì ông đã làm là quan sát một sự kiện mà ông tin là vừa không thể tránh khỏi, vừa thực sự tích cực vì nhân loại chắc chắn sẽ tìm ra một loại “trí tuệ cực thông minh” mà con người cần có để giải quyết các vấn đề quá khó đối với mình. Rồi sau khi sống thêm ba thập niên nữa, Good đã đổi ý. Ông nói, chúng ta sẽ tạo ra các máy móc siêu thông minh theo hình hài của mình, và chúng sẽ hủy diệt chúng ta. Tại sao? Bởi cùng một lý do khiến chúng ta sẽ không bao giờ đồng ý ra lệnh cấm nghiên cứu AI, và cũng lý do đó khiến chúng ta nhiều khả năng sẽ trao tự do cho Đứa trẻ Bận rộn. Cũng chính vì lý do đó mà nhà chế tạo AI Steve Omohundro, một người hoàn toàn thấu suốt, và mọi chuyên gia AI khác mà tôi đã gặp, đều tin rằng việc ngăn chặn phát triển AGI cho đến khi chúng ta biết thêm về các mối nguy của nó là điều không thể thực hiện được.
Chúng ta sẽ không dừng việc phát triển AGI lại, vì nỗi sợ các AI nguy hiểm còn thấp hơn nỗi sợ các quốc gia khác trên thế giới sẽ tiếp tục nghiên cứu AGI, bất chấp cộng đồng quốc tế có nói hoặc làm gì đi nữa. Chúng ta tin rằng khôn ngoan hơn cả là nên ra tay trước. Chúng ta đang ở trong cuộc chạy đua trí thông minh, và không may cho nhiều người, nó đang định hình thành một cuộc cạnh tranh toàn cầu còn ghê gớm hơn cả thứ mà chúng ta vừa thoát khỏi: cuộc chạy đua vũ khí hạt nhân. Chúng ta sẽ cúi đầu để những kẻ hoạch định chính sách và những kẻ tiên phong công nghệ đẫn chúng ta tới địa ngục, theo lời Good, “như loài chuột.”
Singularity tích cực của Ray Kurzweil không cần một sự bùng nổ trí thông minh – Định luật Hồi quy Tăng tốc đảm bảo sự tăng trưởng theo hàm mũ liên tục của các công nghệ thông tin, bao gồm những thứ thay đổi thế giới như AGI, và sau đó là ASI. Xin nhắc lại rằng AGI là một điều kiện cần của sự bùng nổ trí thông minh kiểu Good. Sự bùng nổ này sẽ tạo ra trí thông minh siêu nhân hay ASI. Kurzweil cho rằng sẽ chinh phục được AGI, lúc đầu chậm, và sau đó nhanh chóng hoàn tất, nhờ sức mạnh của LOAR.
Kurzweil không quan tâm tới các vật cản trên đường tới AGI, vì ông tin vào cách dùng kỹ nghệ đảo ngược bộ não. Ông tin rằng chẳng có gì trong bộ não, thậm chí cả ý thức, là không thể đạt được bằng điện toán. Rất ít người tin rằng sự bùng nổ trí thông minh theo kiểu Good là cần thiết để đạt tới ASI sau khi đã chinh phục được AGI. Một sự phát triển chậm chắc là đủ, nhưng như Kurzweil đã nhấn mạnh, có lẽ sẽ không phải chậm và chắc, mà là nhanh và tăng tốc.
Tuy nhiên, sự bùng nổ trí thông minh có thể là không tránh được khi một hệ thống AGI nào đó xuất hiện. Khi một hệ thống nào đó trở nên tự nhận thức và tự cải tiến, thì các động lực cơ bản của nó, như Omohundro đã mô tả, gần như đảm bảo rằng nó sẽ tìm kiếm sự tự cải tiến, hết lần này đến lần khác.⦾
Vậy, sự bùng nổ trí thông minh chắc chắn sẽ xảy ra? Hay có thứ gì đó sẽ cản nó lại?
Những người không tin vào AGI xoay quanh hai ý: kinh tế và sự phức tạp của phần mềm. Thứ nhất là kinh tế, họ cho rằng ngân sách sẽ không đủ để đưa AI hẹp trở thành các kiến trúc nhận thức mạnh và có độ phức tạp cao hơn nhiều như AGI. Chỉ một số ít nỗ lực về AGI được tài trợ tốt. Điều này nhắc tới một số nhà nghiên cứu luôn cảm thấy lĩnh vực của họ bị trì hoãn vô thời hạn, một thứ “mùa đông AI.” Họ sẽ thoát khỏi đó nếu chính phủ hoặc một công ty lớn như IBM hoặc Google cho rằng AGI là thứ ưu tiên hàng đầu, và lập ra một dự án cỡ như Manhattan hòng đạt tới nó. Trong Thế chiến II, việc đẩy mạnh nghiên cứu vũ khí hạt nhân đã tiêu tốn của chính phủ Mỹ khoảng hai tỉ đô-la theo thời giá hiện nay, và tuyển dụng khoảng 1.300 người. Những nhà nghiên cứu muốn sớm đạt được AGI thường xuyên nhắc tới Dự án Manhattan. Vậy ai sẽ muốn làm chuyện đó, và tại sao?
Những người dùng lý do sự phức tạp của phần mềm thì cho rằng vấn đề AGI đơn giản là quá khó với con người, dù chúng ta có cố gắng đến đâu đi nữa. Như triết gia Daniel Dennett đề xuất, có lẽ chúng ta không sở hữu được thứ trí tuệ có thể hiểu được trí tuệ của chính chúng ta. Trí tuệ của nhân loại có lẽ không phải là thứ mạnh nhất. Nhưng chắc là cần phải có một trí thông minh lớn hơn thế để thấu hiểu hoàn toàn trí khôn của con người.
Để thăm dò tính hợp lý của những người không tin vào sự bùng nổ trí thông minh, tôi tới gặp một người mà tôi luôn thấy ở các hội thảo về AI, và tôi cũng thường đọc trên web các blog, bài báo, tiểu luận của anh. Anh là một nhà chế tạo AI, đã xuất bản nhiều bài luận và phỏng vấn, thêm vào đó là chín cuốn sách bìa cứng, và vô số bài báo khoa học, nên sẽ chẳng có gì đáng ngạc nhiên nếu tôi khám phá ra có một robot tại nhà anh ở ngoại ô Washington, D.C., nó làm việc cả ngày, viết lách hộ Tiến sĩ Benjamin Goertzel để anh Ben Goertzel có thể đi hội thảo. Kết hôn hai lần và có ba đứa con, anh từng làm việc ở những khoa về khoa học máy tính, toán học và tâm lý ở các trường đại học ở Mỹ, Úc, New Zealand và Trung Quốc. Anh là người tổ chức hội thảo quốc tế thường niên duy nhất về trí tuệ nhân tạo phổ quát, và góp phần khiến thuật ngữ AGI trở nên thông dụng hơn bất kỳ ai khác. Anh là CEO của hai công ty công nghệ, trong đó Novamente là một trong số ít công ty được các chuyên gia kỷ vọng sẽ giải mã được AGI đầu tiên.
Nói một cách tổng quát, kiến trúc nhận thức của Goertzel, có tên OpenCog, biểu thị một cách tiếp cận thiên về kỹ thuật, khoa học máy tính. Những nhà nghiên cứu theo phương pháp khoa học máy tính muốn thiết kế AGI với kiến trúc hoạt động tương tự bộ não người, theo như các môn khoa học nhận thức đã mô tả.⦾ Chúng bao gồm ngôn ngữ học, tâm lý học, nhân loại học, giáo dục, triết học, và nhiều nữa. Các nhà nghiên cứu khoa học máy tính tin rằng chế tạo trí thông minh y hệt như cách bộ não làm việc – kỹ nghệ đảo ngược bản thân bộ não như cách Kurzweil và những người khác tiến cử — là phí phạm thời gian không cần thiết. Hơn thế, thiết kế của bộ não là không tối ưu – lập trình sẽ tạo ra thứ tốt hơn. Họ lý luận, nói cho cùng thì con người không cần phải dùng kỹ nghệ đảo ngược con chim để học cách bay. Từ việc quan sát các con chim và thử nghiệm, họ suy ra các nguyên lý về việc bay. Các khoa học nhận thức là “nguyên tắc bay” của bộ não.
Chủ đề cấu thành OpenCog là trí thông minh có cơ sở từ sự nhận thức các hình mẫu ở mức độ cao. Thường thì các “hình mẫu” trong AI là những khối dữ liệu (tệp tin, hình ảnh, đoạn ký tự, mục đích) đã được phân loại – được tổ chức thành các thư mục – hoặc sẽ bị một hệ thống đã được huấn luyện về dữ liệu phân loại. Các bộ lọc “thư rác” trong email của bạn là một thứ phát hiện hình mẫu trình độ cao – nó phát hiện một hoặc nhiều dấu hiệu của một email không mong muốn (ví dụ, cụm từ “tráng dương” trong tiêu đề email) và lọc nó ra.
Ý niệm về nhận thức hình mẫu của OpenCog thì tinh tế hơn. Hình mẫu mà nó tìm được trong mỗi thứ hoặc mỗi ý tưởng là một chương trình nhỏ, chứa đựng một dạng mô tả của thứ đó. Đây là cách máy tính hiểu về khái niệm. Ví dụ, khi bạn nhìn thấy một con chó, ngay lập tức bạn hiểu nhiều điều về nó – bạn vốn đã có một khái niệm về chó trong trí nhớ của mình. Mũi nó ướt, nó thích thịt lợn xông khói, nó rụng lông và nó đuổi mèo. Rất nhiều thứ được gói gọn trong khái niệm của bạn về một con chó.
Khi bộ cảm biến của OpenCog thấy một con chó, chương trình “chó” của nó sẽ chạy ngay tức thì, tập trung sự chú ý của OpenCog về khái niệm chó. OpenCog sẽ đưa thêm các thông tin vào khái niệm chó dựa trên những chi tiết của con chó đó, hoặc bất kỳ con chó nào khác.
Những module riêng biệt của OpenCog sẽ thực hiện các nhiệm vụ như nhận dạng, tập trung chú ý và ghi nhớ. Chúng làm những việc đó bằng bộ công cụ phần mềm về lập trình di truyền và mạng neuron, những thứ quen thuộc nhưng đã được tùy chỉnh.
Rồi quá trình học bắt đầu. Goertzel dự định sẽ “nuôi lớn” AI trong một thế giới ảo do máy tính giả lập, ví dụ như Second Life, một quá trình học dần thấm lâu có thể sẽ kéo dài nhiều năm. Cũng như những người đang xây dựng các kiến trúc nhận thức khác, Goertzel tin rằng trí thông minh cần phải được “cơ thể hóa,” theo một kiểu “tương đối giống con người,” kể cả khi cơ thể của nó chỉ tồn tại trong một thế giới ảo. Sau đó tác nhân thông minh còn non dại này sẽ có thể phát triển một tập hợp các sự thật về thế giới mà nó đang sống. Trong giai đoạn học hỏi của nó, thứ được Goertzel xây dựng phỏng theo lý thuyết về sự phát triển của trẻ em của nhà tâm lý học Jean Piaget, em bé OpenCog có thể tăng cường hiểu biết bằng cách truy cập vào một trong nhiều kho dữ liệu kiến thức phổ thông mang tính thương mại.
Một kho kiến thức khổng lồ như vậy có tên là Cyc, viết tắt của encyclopedia. Được công ty Cycorp tạo dựng, nó chứa khoảng một triệu thuật ngữ, năm triệu quy tắc và mối quan hệ thực tế giữa những thuật ngữ đó. Một người sẽ phải mất hơn 1.000 năm để nhập lượng kiến thức này vào theo dạng logic bậc nhất, một hệ thống chính thức được sử dụng trong toán học và khoa học máy tính để biểu thị các khẳng định và mối quan hệ. Cyc không khác gì một cái giếng khổng lồ chứa những kiến thức sâu sắc của nhân loại – nó “hiểu” khá nhiều về tiếng Anh, đến khoảng 40%. Ví dụ, Cyc “biết” cái cây nghĩa là gì, và nó biết cái cây thì có rễ. Nó cũng biết các gia đình thì có tổ tiên và gia phả⦾. “Nó biết rằng việc đặt báo dài hạn sẽ dừng lại khi người ta chết, và cốc chén thì có thể dựng hoặc rót chất lỏng ra, nhanh hoặc chậm.
Trên tất cả, Cyc có một cơ cấu “suy luận.” Suy luận là khả năng đưa ra kết luận từ bằng chứng. Cơ cấu suy luận của Cyc hiểu các câu hỏi và đưa ra được các câu trả lời từ kho dữ liệu kiến thức rộng lớn của nó.
Được nhà tiên phong về AI là Douglas Lenat xây dựng, Cyc là dự án AI lớn nhất trong lịch sử, và có lẽ là dự án được tài trợ tốt nhất, với 50 triệu đô-la vốn đến từ các cơ quan nhà nước, trong đó có DARPA, kể từ năm 1984.3 Những người xây dựng Cyc tiếp tục cải tiến cơ sở dữ liệu và cơ cấu suy luận của nó để nó có thể xử lý tốt hơn thứ “ngôn ngữ tự nhiên,” tức ngôn ngữ đọc viết hàng ngày. Một khi nó đã đạt đến khả năng xử lý ngôn ngữ tự nhiên (natural language processing: NLP) đủ tốt, các nhà chế tạo ra nó sẽ bắt đầu cho nó đọc và hiểu tất cả các trang web trên Internet.
Một đối thủ cạnh tranh khác về ngôi vị cơ sở dữ liệu kiến thức thông thái nhất đã bắt đầu làm việc đó. Hệ thống NELL (Never Ending Language Learning: Học ngôn ngữ không ngừng) của Đại học Carnegie Mellon, biết hơn 390.000 sự kiện của thế giới này. Chạy 24/7, NELL – một dự án được DARPA tài trợ – quét hàng trăm triệu trang web tìm các hình mẫu dạng văn bản để nó có thể học nhiều hơn nữa. Nó phân loại các dữ kiện vào 274 thư mục như thành phố, người nổi tiếng, thực vật, các đội thể thao… Nó biết về những dữ kiện liên thư mục, ví dụ như Miami là một thành phố, có đội Miami Dolphins chơi bóng bầu dục. NELL có thể suy luận được rằng dolphins ở đây không phải là loài động vật có vú sống thành đàn nơi đại dương dù cùng tên.
NELL tận dụng ưu thế có được từ mạng lưới trí lực không chính thống của Internet – mạng lưới người dùng. CMU mời công chúng lên mạng và giúp đào tạo NELL bằng cách phân tích cơ sở dữ liệu và sửa các lỗi sai của nó.4
Kiến thức sẽ là chìa khóa đến AGI, cũng như kinh nghiệm và sự hiểu biết – trí thông minh cấp độ con người không thể đạt được nếu thiếu chúng. Nghĩa là mọi hệ thống AGI sẽ phải gắn liền với việc thu thập kiến thức — dù bằng cách gắn cho nó một cơ thể có khả năng thu lượm kiến thức, hoặc bằng cách truy cập vào các cơ sở dữ liệu, hoặc bằng cách đọc toàn bộ nội dung của web. Và càng sớm càng tốt, Goertzel nói.
Để thúc đẩy tiến độ dự án, lãng tử Goertzel phân chia thời gian của anh giữa Hong Kong và Rockville, Maryland. Vào một buổi sáng mùa xuân, tôi thấy trong sân nhà anh một tấm bạt lò xo đã bạc màu và một chiếc minivan Honda trông tàn tạ đến nỗi như vừa bay qua một vành đai thiên thạch để đến đây. Đằng sau xe là miếng dán ghi “Con tôi là người tù của tháng tại trại giam hạt.” Cùng sống với Goertzel và con gái anh là lũ thỏ, một con vẹt và hai con chó. Những con chó chỉ tuân theo các mệnh lệnh được đưa ra bằng tiếng Bồ Đào Nha – Goertzel sinh ra ở Brazil năm 1966 – để những người khác không ra lệnh được cho chúng.
Vị giáo sư mở cửa đón tôi, anh vừa ra khỏi giường vào 11 giờ sáng sau khi đã thức cả đêm để lập trình. Tôi cho rằng chúng ta không nên định sẵn trong đầu là các nhà khoa học đã đi vòng quanh thế giới phải trông thế nào, vì trong nhiều trường hợp nó chẳng đúng chút nào, chí ít là với tôi. Trên giấy tờ thì Tiến sĩ Benjamin Goertzel khiến ta nghĩ đến một học giả ngành máy tính, cao, gầy, có lẽ hói, theo chủ nghĩa quốc tế đơn thuần, và chắc là vừa nằm vừa đi xe đạp. Trời ạ, chỉ có gầy và chủ nghĩa quốc tế là đúng. Goertzel đời thực trông như một gã hippy quá đà. Nhưng đằng sau cặp kính kiểu John Lennon, bộ tóc dài và gần như bện xoắn lại, bộ râu lúc nào cũng lởm chởm, nụ cười nửa miệng cố định, anh đã diễn giải không mệt mỏi cho tôi về các lý thuyết phức tạp đến chóng mặt, sau đó thì quay lại giải thích nó về mặt toán học. Anh viết quá tốt nên không thể là một nhà toán học thông thường, và làm toán quá giỏi nên không thể là một người viết thông thường. Thế nhưng anh lại quá khôn ngoan, đến nỗi khi nói với tôi rằng anh đã nghiên cứu đạo Phật và chưa hiểu được nhiều, tôi tự hỏi con người an nhiên, thanh thản này trông sẽ thế nào khi anh hiểu hết.
Tôi đến để hỏi anh về những tính chất cơ bản của sự bùng nổ trí thông minh và những tác nhân cản trở – những vật cản có thể khiến nó không xảy ra. Sự bùng nổ trí thông minh có hợp lý không, và có đúng là không thể tránh khỏi không? Nhưng trước hết, sau khi chúng tôi đã yên vị trong phòng khách với lũ thỏ, anh liền giải thích tại sao anh nghĩ khác với hầu hết những nhà chế tạo và nhà lý thuyết AI khác.
Nhiều người, đặc biệt là những người ở MIRI, khuyên rằng nên dùng thật nhiều thời gian khi phát triển AGI, để có thể hoàn toàn tuyệt đối chắc chắn rằng “tính thân thiện” đã là một phần của nó. Chuyện AGI bị trì hoãn và ra đời chậm hàng thế kỷ làm họ hạnh phúc, vì họ tin tưởng mạnh mẽ rằng siêu trí tuệ nhân tạo sẽ hủy diệt chúng ta. Và có lẽ không chỉ chúng ta, mà tất cả các dạng sống trong Ngân hà.⦾
Goertzel thì không. Anh khuyến cáo rằng nên chế tạo AGI càng sớm càng tốt. Năm 2006, anh đã có một bài phát biểu với nhan đề “10 năm để đến được một Singularity tích cực – Nếu chúng ta thực sự, thực sự cố gắng.” “Singularity” trong câu này mang định nghĩa được dùng nhiều nhất hiện nay – là thời gian mà con người đạt tới ASI, và chia sẻ Trái đất với một thực thể thông minh hơn chính mình. Goertzel lập luận rằng nếu AGI ra sức lợi dụng ưu thế từ cơ sở hạ tầng của xã hội hoặc nền công nghiệp mà ở đó nó đã sinh ra, và trí thông minh của nó “bùng nổ” thành ASI, thì phải chăng chúng ta nên để vụ “cất cánh nhanh” đó (một sự bùng nổ trí thông minh đột ngột và không kiểm soát được) xảy ra trong thế giới còn mông muội này, thay vì trong một thế giới tương lai khi mà công nghệ nano, công nghệ sinh học và tự động hóa diện rộng sẽ làm AI lên ngôi cực nhanh?
Để tìm được câu trả lời, xin trở lại với Đứa trẻ Bận rộn một lát. Như bạn đã biết, nó đã “cất cánh nhanh” từ AGI lên ASI rồi. Nó đã trở nên tự nhận thức và tự cải tiến, trí thông minh của nó đã vọt lên quá cấp độ con người trong vài ngày. Giờ thì nó muốn ra khỏi siêu máy tính, nơi nó được tạo ra để thỏa mãn các động lực của mình. Như Omohundro đã thảo luận, các động lực gồm: hiệu suất, tự bảo tồn, chiếm đoạt tài nguyên và sáng tạo.6
Như chúng ta đã thấy, một ASI không bị quản thúc sẽ biểu hiện các động lực này ra theo những cách hết sức điên cuồng. Để có được những gì nó muốn, nó có thể trở nên thuyết phục một cách khủng khiếp, thậm chí là đáng sợ. Nó sẽ sử dụng sức mạnh trí tuệ vượt trội để tháo dỡ bức tường phòng vệ của Người giữ cửa. Sau đó, bằng cách phát minh và thao túng các loại công nghệ, trong đó có công nghệ nano, nó sẽ đoạt lấy quyền kiểm soát tài nguyên, kể cả các phân tử của chúng ta.
Do đó, Goertzel nói, hãy xem xét cẩn thận cái thế giới mà bạn đưa trí thông minh siêu nhân vào, nó đang có những loại công nghệ gì. Ví dụ, ngay bây giờ sẽ an toàn hơn là 50 năm sau.
“Sau 50 năm,” anh nói với tôi, “nền kinh tế sẽ trở nên hoàn toàn tự động hóa, với một cơ sở hạ tầng phát triển hơn nhiều. Nếu một máy tính muốn cải tiến phần cứng của nó, thì không cần phải nhờ đến con người. Nó chỉ cần lên mạng và sau đó một số robot sẽ đến và giúp nó cài đặt phần cứng mới. Sau đó nó sẽ ngày càng thông minh hơn, tiếp tục đặt hàng các bộ phận mới và tự lắp ráp bản thân nó, sẽ không ai biết chuyện gì đang xảy ra. Vậy là có lẽ khoảng 50 năm nữa bạn sẽ gặp một siêu AGI, thứ thực sự có thể trực tiếp chiếm lấy thế giới. Con đường đi đến quyền lực của AGI sẽ đầy kịch tính.”
Vào thời điểm này, hai con chó của Goertzel nhập bọn với chúng tôi, chúng nhận được vài mệnh lệnh bằng tiếng Bồ Đào Nha. Rồi chúng đi ra ngoài sân sau để chơi.
“Nếu anh tin rằng cất cánh nhanh là một thứ nguy hiểm, thì cách an toàn nhất là phát triển AGI cao cấp sớm nhất có thể, để điều đó xảy ra khi các công nghệ hỗ trợ còn yếu và một vụ cất cánh nhanh không kiểm soát được sẽ khó xảy ra. Và nên cố gắng tạo ra nó trước khi chúng ta có công nghệ nano mạnh hoặc các robot có khả năng tái định hình, tức robot có thể tự thay đổi hình dạng và chức năng để phù hợp với mọi công việc.”
Theo một nghĩa rộng, Goertzel không thực sự tin vào ý tưởng một vụ cất cánh nhanh sẽ dẫn đến ngày tận thế – kịch bản Đứa trẻ Bận rộn. Cách anh lập luận rất đơn giản: chúng ta sẽ chỉ tìm ra được cách chế tạo các hệ thống AI có đạo đức qua việc xây dựng chúng, chứ không thể chỉ đứng từ xa mà suy luận rằng chúng sẽ nguy hiểm. Nhưng anh không bỏ qua các hiểm họa.
“Tôi sẽ không nói rằng tôi không lo lắng về nó. Tôi sẽ nói rằng có một sự bất định khổng lồ và không thể giảm bớt trong tương lai. Con gái và con trai tôi, mẹ tôi, tôi không muốn tất cả hộ phải chết vì một số AI siêu nhân tái xử lý các phân tử của họ thành thứ vật chất điện toán. Nhưng tôi nghĩ rằng lý thuyết chế tạo AGI có đạo đức sẽ đến qua việc thử nghiệm các hệ thống AGI.”
Khi Goertzel nói thế, quan điểm tuần tự nghe rất có lý. Có một sự bất định khổng lồ và không thể giảm bớt trong tương lai. Và các nhà khoa học sẽ thu được nhiều nhận thức về cách quản lý những máy móc thông minh trên con đường tới AGI. Sau cùng thì chính con người tạo ra máy móc. Máy tính sẽ không trở nên kỳ dị một cách đột ngột khi chúng hóa thành thông minh. Và vì thế, lập luận này tiếp tục, chúng sẽ làm như được bảo. Thực tế, chúng ta thậm chí còn có thể chờ đợi rằng chúng sẽ đạo đức hơn cả chúng ta, vì chúng ta đâu có muốn chế tạo một trí thông minh với nỗi thèm khát bạo lực và giết chóc, đúng không nào?
Nhưng đó chính xác là kiểu của các drone tự động và robot trận mạc mà chính phủ Mỹ và các nhà thầu quân đội hiện đang phát triển. Họ đang xây dựng và sử dụng các AI cao cấp nhất sẵn có. Tôi cảm thấy lạ khi người đi đầu trong lĩnh vực robot, Rodney Brooks, lại không cho rằng siêu trí tuệ nhân tạo sẽ có hại khi mà iRobot, công ty do ông sáng lập, đã sản xuất các robot sát thương rồi.7 Tương tự, Kurzweil lập luận rằng AI cao cấp sẽ mang những giá trị của chúng ta vì nó đến từ chúng ta, và vì thế sẽ vô hại.
Tôi đã phỏng vấn cả hai nhà khoa học từ 10 năm trước, và họ đều lập luận giống nhau. Trong thập niên tiếp theo, họ vẫn giữ sự nhất quán đáng buồn đó, dù tôi nhớ từng nghe một bài nói của Brooks, trong đó ông tuyên bố việc chế tạo robot sát thương có sự khác biệt về đạo đức với quyết định chính trị để sử dụng chúng.
Tôi nghĩ có một khả năng cao rằng sẽ có những sai lầm đau thương trên con đường tới AGI, cũng như khi các nhà khoa học đã thực sự đạt tới nó. Như tôi đã đề xuất, chúng ta sẽ phải gánh chịu hậu quả lâu dài từ rất lâu trước khi có cơ hội học hỏi về chúng, như dự báo của Goertzel. Về khả năng sống sót của chúng ta – tôi tin rằng mình đã thể hiện khá rõ sự nghi ngờ điều đó. Nhưng có thể bạn sẽ ngạc nhiên khi biết vấn đề chủ chốt của tôi với việc nghiên cứu AI thậm chí không phải là điều đó. Vấn đề là có quá nhiều người hiểu rằng sẽ không có bất kỳ rủi ro nào trong giai đoạn phát triển AI. Những người sẽ sớm phải chịu đựng những hệ quả xấu từ AI có quyền được biết một số tương đối ít các nhà khoa học đang đưa cả nhân loại đến đâu.
Như tôi đã nói, sự bùng nổ trí thông minh của Good và thái độ bi quan của ông về tương lai nhân loại là một điều quan trọng, vì nếu sự bùng nổ trí thông minh là khả thi, thì xác suất của AI ngoài-tầm-kiểm-soát cũng vậy. Trước khi xem xét các tác nhân cản trở của nó – kinh tế và sự phức tạp của phần mềm – hãy cùng nhìn lại con đường tới ASI Những thành phần cơ bản của sự bùng nổ trí thông minh là gì?
Đầu tiên, một sự bùng nổ trí thông minh cần có AGI hoặc thứ gì đó rất gần với nó. Tiếp theo, Goertzel, Omohundro và những người khác, đều nhất trí rằng nó sẽ phải có khả năng tự nhận thức – nghĩa là nó phải có một sự hiểu biết sâu sắc về bản thể của nó.8 Vì nó là một AGI nên chúng ta giả định rằng nó có trí thông minh phổ quát. Nhưng để tự cải tiến, nó cần phải có nhiều hơn thế. Nó sẽ cần những kiến thức lập trình nhất định để khởi phát vòng lặp tự cải tiến, trái tim của sự bùng nổ trí thông minh.
Theo Omohundro, cách thức tự cải tiến và lập trình đến từ sự duy lý của AI – tự cải tiến để theo đuổi các mục tiêu là một cách hành xử duy lý. Không có khả năng tự cải thiện chương trình sẽ là một nhược điểm lớn.9 AI sẽ bị thúc đẩy phải có được các kỹ năng lập trình. Nhưng làm thế nào nó có thể có chúng? Hây cùng xem một kịch bản giả định đơn giản với OpenCog của Goertzel.
Kế hoạch của Goertzel là tạo ra một “tác nhân” AI giống như một em bé và thả nó tự do trong một thế giới ảo có kết cấu phong phú để nó học hỏi. Anh sẽ hỗ trợ quá trình học của nó với một cơ sở dữ liệu kiến thức, hoặc cho tác nhân này kỹ năng NLP và cho nó đọc Internet. Các giải thuật học hỏi mạnh, thứ được tạo ra trong tương lai, sẽ biểu thị kiến thức với “các giá trị sự thật xác suất.” Nghĩa là sự hiểu biết của tác nhân này về một thứ gì đó có thể được cải thiện nếu có thêm các ví dụ hoặc dữ liệu. Một cơ cấu suy luận xác suất cũng đang được xây dựng sẽ cho nó khả năng lập luận trên các bằng chứng không hoàn chỉnh.10
Với lập trình di truyền, Goertzel có thể dạy tác nhân AI này cách tự tiến hóa các công cụ máy học của nó – những chương trình của bản thân nó. Những chương trình này sẽ cho phép tác nhân thử nghiệm và học hỏi – hỏi các câu hỏi đúng về môi trường xung quanh, phát triển các giả thiết và kiểm tra chúng. Những gì nó có thể học sẽ gần như vô hạn. Nếu có thể tiến hóa thành những chương trình tốt hơn, nó có thể cải tiến các giải thuật của nó.
Vậy thì điều gì sẽ ngăn chặn sự bùng nổ trí thông minh xảy ra trong thế giới ảo này? Có lẽ là không gì cả. Chuyện này khiến một số nhà lý thuyết đề xuất rằng Singularity cũng có thể xảy ra trong một thế giới ảo.11 Nó có khiến những sự kiện này trở nên an toàn hơn chút nào không là một câu hỏi cần được đào sâu. Một cách khác là cài đặt tác nhân thông minh này vào một robot, tiếp tục giáo dục nó và thỏa mãn các mục tiêu của nó trong thế giới thực. Một cách khác nữa là dùng tác nhân AI này để tăng cường trí thông minh cho não người.
Nói chung, những người tin rằng trí thông minh cần được cơ thể hóa thường cho rằng bản thân kiến thức được khởi phát nhờ những kinh nghiệm đến từ cảm giác và vận động. Quá trình xử lý nhận thức không thể xảy ra nếu thiếu chúng. Họ cho là việc học thuộc lòng các dữ kiện về quả táo sẽ không bao giờ khiến bạn thông tuệ theo nghĩa con người về quả táo đó. Bạn sẽ không bao giờ phát triển “khái niệm” về một quả táo bằng cách đọc hoặc nghe về nó – sự hình thành khái niệm đòi hỏi bạn phải ngửi, sờ, nhìn và nếm – càng nhiều càng tốt. Trong AI, điều này được biết đến như “vấn đề nền móng.”
Hãy xem xét một số hệ thống với khả năng nhận thức mạnh nằm ở trên AI hẹp nhưng chưa tới được mức AGI. Gần đây, Hod Lipson tại Phòng nghiên cứu điện toán tổng hợp của Đại học Cornwell đã phát triển một phần mềm có khả năng rút ra được các định luật khoa học từ dữ liệu thô.12 Bằng cách quan sát sự dao động của một con lắc đôi, nó tái khám phá ra nhiều định luật vật lý của Newton. “Nhà khoa học” ở đây là một giải thuật di truyền. Nó bắt đầu với những giả định thô về các phương trình vận hành con lắc, kết hợp các phần tốt nhất của những phương trình đó, và sau nhiều thế hệ thì cho ra các định luật vật lý, ví dụ như định luật bảo toàn năng lượng.13
Và hãy xem xét di sản đáng lo ngại của AM và Eurisko. Đó là những thử nghiệm trước đây của Douglas Lenat, nhà sáng lập Cyc. Sử dụng giải thuật di truyền, AM của Lenat, Nhà toán học tự động (Automatic Mathematician), sinh ra những lý thuyết toán học, về bản chất là tái khám phá các định luật toán học cơ bản bằng cách tạo ra các quy luật từ dữ liệu toán học. Nhưng AM bị giới hạn bởi toán học – Lenat muốn một chương trình giải quyết các vấn đề trong nhiều lĩnh vực chứ không chỉ một. Vào những năm 1980, ông tạo ra Eurisko (tiếng Hy Lạp nghĩa là “Tôi khám phá”). Eurisko đã tạo nên đột phá trong ngành AI bằng việc tiến hóa ra các phương pháp gần đúng, hay các quy luật thực nghiệm, về vấn đề nó đang phải giải quyết, và nó tiến hóa ra các quy luật về bản thân cách hoạt động của nó.14 Nó rút ra các bài học từ việc giải quyết vấn đề thành công hoặc thất bại, và mã hóa chúng thành những quy luật mới. Nó thậm chí tự sửa đổi chương trình của mình, được viết bằng ngôn ngữ lập trình Lisp.
Thành công lớn nhất của Eurisko là khi Lenat cho nó đấu với con người trong một trò chơi chiến tranh ảo tên là Traveller Trillion Credit Squadron. Trong trò chơi này, người chơi điều khiển các con tàu trong một hạm đội giả định, với một ngân quỹ cho trước, đánh nhau với các hạm đội khác. Các biến số bao gồm số lượng và loại tàu, độ dày của thân tàu, số lượng và loại súng… Eurisko nghĩ ra một hạm đội, thử nghiệm nó chống lại các hạm đội giả định khác, lấy ra những phần tốt nhất từ bên thắng cuộc và kết hợp chúng lại, thêm vào đó các đột biến, và cứ thế, giống như một phiên bản số của quá trình chọn lọc tự nhiên. Sau 10.000 trận đánh, chạy trên 100 máy tính liên kết với nhau, Eurisko đã tiến hóa ra một hạm đội bao gồm nhiều tàu đứng yên với bộ giáp dày và rất ít vũ khí. Ngược lại, hầu hết người chơi đều chọn các con tàu cỡ trung, tốc độ cao với vũ khí mạnh. Tất cả các đối thủ của Eurisko đều chịu chung số phận – cuộc chơi kết thúc khi tất cả tàu của họ bị tiêu diệt, trong khi một nửa số tàu của Eurisko vẫn hoạt động. Eurisko giành giải thưởng năm 1981 một cách dễ dàng. Năm sau, ban tổ chức thay đổi luật chơi và không công bố trước để Eurisko không thể chơi trước hàng ngàn trận giả lập. Nhưng chương trình này đã rút ra được những quy luật thực nghiệm hiệu quả từ kinh nghiệm trước đó, cho nên nó không cần nhiều vòng lặp. Nó lại thắng một cách dễ dàng. Năm 1983, ban tổ chức trò chơi dọa sẽ giải tán sự kiện này nếu Eurisko lại thắng tiếp lần thứ ba. Lenat rút lui.15
Một lần trong quá trình vận hành, Eurisko đã tạo ra một quy luật, nhanh chóng đạt tới giá trị cao nhất, tức là thích hợp nhất. Lenat và đội của ông tìm hiểu cặn kẽ để hiểu quy luật này có gì mà hay vậy. Kết quả là cứ khi nào một giải pháp được đề ra cho một vấn đề giành được sự đánh giá cao, thì quy luật này sẽ gắn tên nó vào giải pháp đó, tự nâng “giá trị” của mình lên.16 Đây là một khái niệm thông minh nhưng không hoàn chỉnh về giá trị. Eurisko thiếu một sự hiểu biết về mặt ngữ cảnh, rằng trò lách luật nhỏ này không làm nó thắng cuộc được. Đó là lúc Lenat nảy ra ý định sẽ tạo nên một cơ sở dữ liệu khổng lồ về những gì Eurisko còn thiếu – hiểu biết về đời sống thống thường. Cyc, cơ sở dữ liệu về kiến thức phổ thông mà một người sẽ mất cả ngàn năm để nhập liệu, đã được sinh ra.
Lenat chưa bao giờ công bố mã nguồn của Eurisko, điều đó khiến một số blogger về AI đặt giả thiết rằng ông muốn cho nó hồi sinh vào một ngày nào đó, hoặc ông lo lắng sẽ có ai khác làm điều đó. Đặc biệt là Eliezer Yudkowsky, người đã viết nhiều nhất về hiểm họa AI, nghĩ rằng giải thuật của giai đoạn những năm 1980 là thứ gần nhất với hệ thống AI tự cải tiến mà các nhà khoa học đã tạo ra cho đến nay. Ông kêu gọi những lập trình gia không dùng lại nó.17
Giả định đầu tiên của chúng ta là để sự bùng nổ trí thông minh xảy ra được, hệ thống AGI đang nói tới phải có khả năng tự cải tiến theo kiểu Eurisko và tự nhận thức.
Hãy đặt ra thêm một giả định nữa trong khi chúng ta xem xét những trở ngại và rào cản. Khi trí thông minh của một AI tự nhận thức và tự cải tiến tăng lên, động lực hiệu suất của nó sẽ khiến nó thu mã của mình lại cô đọng nhất có thể, và nén nhiều nhất có thể trí thông minh vào phần cứng của nó. Dù vậy, phần cứng mà nó có thể sử dụng là một yếu tố có giới hạn. Ví dụ, nếu môi trường của nó không đủ dung lượng cho AI tự nhân bản phục vụ cho nhu cầu an ninh và tự cải tiến, thì sao? Tạo ra các vòng lặp tự cải tiến là trái tim của sự bùng nổ trí thông minh của Good. Đây là lý do tại sao đối với kịch bản Đứa trẻ Bận rộn mà tôi đề xuất, sự bùng nổ trí thông minh lại diễn ra trong một siêu máy tính có dung lượng bộ nhớ lớn.
Độ giãn nở của môi trường sống của AI là một yếu tố lớn góp phần vào sự tăng trưởng trí thông minh của nó. Nhưng đây là một vấn đề đơn giản. Thứ nhất, như chúng ta đã biết được từ Định luật Hồi quy Tăng tốc của Kurzweil, tốc độ và dung lượng máy tính nhân đôi trong một khoảng thời gian ngắn là mỗi năm. Điều đó có nghĩa là cho dù một hệ thống AGI có yêu cầu phần cứng thế nào vào hôm nay, thì một năm sau yêu cầu đó sẽ được thỏa mãn với trung bình là một nửa phần cứng đó, và với một nửa giá.
Thứ hai, khả năng truy cập vào điện toán đám mây. Điện toán đám mây cho phép người dùng thuê sức mạnh và dung lượng máy tính trên Internet. Các công ty như Amazon, Google và Rackspace cung cấp cho người dùng các lựa chọn về tốc độ vi xử lý, hệ điều hành và dung lượng bộ nhớ. Sức mạnh máy tính đã trở thành một dịch vụ thay vì một sự đầu tư phần cứng. Bất cứ ai với một thẻ tín dụng và biết vài thao tác đơn giản đều có thể thuê một siêu máy tính ảo. Ví dụ, trên dịch vụ điện toán đám mây EC2 của Amazon, một nhà cung cấp tên là Cycle Computing đã tạo ra một chùm 30.000 vi xử lý với tên gọi Nekomata (tên một loại linh miêu trong văn hóa Nhật Bản). Cứ 8 vi xử lý trong 30.000 cái thì đi kèm với 7 gigabyte RAM (tương đương với RAM của một máy tính cá nhân), tổng là 26,7 terabyte RAM và 2 petabyte dung lượng ổ cứng (tương đương 40 triệu tủ hồ sơ bốn ngăn).18 Nhiệm vụ của Nekomata? Mô hình hóa phản ứng phân tử của một hợp chất thuốc mới cho một công ty dược. Đây là một công việc khó ngang với mô phỏng các hiện tượng thời tiết.
Để hoàn thành nhiệm vụ của mình, Nekomata chạy bảy giờ với giá 9.000 đô-la. Trong khoảng đời ngắn ngủi, nó là một siêu máy tính, đứng trong danh sách 500 siêu máy tính nhanh nhất. Nếu một máy tính để bàn làm việc này, nó sẽ phải mất 11 năm. Các nhà khoa học của Cycle Computing cài đặt mạng đám mây EC2 Amazon từ xa, tại các văn phòng của họ, nhưng phần mềm sẽ quản lý công việc. Như người phát ngôn của công ty đã nói, đó là vì “không có cách nào để người bình thường có thể theo dõi được mọi bộ phận lưu động của chùm máy tính lớn cỡ này.”19 Vậy giả định thứ hai của chúng ta là hệ thống AGI sẽ có đủ không gian để tăng trưởng thành siêu trí tuệ nhân tạo. Thế thì những nhân tố giới hạn sự bùng nổ trí thông minh là gì?
Ta hãy xem xét yếu tố kinh tế trước. Liệu vốn tài trợ cho AGI có mất dần rồi mất hẳn không? Nếu không có doanh nghiệp hoặc chính phủ nào thấy việc chế tạo các máy móc có trí thông minh cấp độ con người là giá trị, hoặc cũng kỳ cục như thế nếu họ nghĩ rằng vấn đề này là quá khó không thực hiện được và không muốn đầu tư, thì sao?
Điều này sẽ đặt các nhà khoa học AGI vào một tình thế khó khăn. Họ sẽ buộc phải bán những yếu tố của các kiến trúc lớn của mình cho các công việc tương đối trần tục như khai thác dữ liệu hoặc giao dịch chứng khoán. Họ sẽ phải tìm việc làm thêm. Cũng đúng thôi, trừ một số trường hợp ngoại lệ, chuyện này ít nhiều đang là tình trạng hiện nay, và ngay cả thế thì việc nghiên cứu AGI vẫn tiến triển vững chắc.
Hãy xem bằng cách nào mà dự án OpenCog của Goertzel vẫn sống. Những bộ phận thuộc kiến trúc của nó đang hoạt động, bận rộn phân tích các dữ liệu sinh học và giải quyết các vấn đề của mạng lưới điện để kiếm tiền. Lợi nhuận thu được dùng để nghiên cứu và phát triển OpenCog.
Công ty Numenta, đứa con trí tuệ của Jeff Hawkins, tác giả của Palm Pilot và Treo, kiếm sống bằng cách làm việc trong các hệ thống cung cấp điện để lường trước các sự cố.
Trong khoảng một thập niên, Peter Voss phát triển công ty AGI của ông. Adaptive AI, theo kiểu “ẩn danh,” ông thuyết giảng rộng rãi về AGI nhưng không hé lộ kế hoạch xử lý nó. Sau đó vào năm 2007, ông thành lập Smart Action, một công ty sử dụng công nghệ của Adaptive AI để xây dựng các Đại lý Ảo. Chúng là các chatbot dùng trong điện thoại dịch vụ khách hàng, có kỹ năng NLP để trợ giúp khách hàng trong các giao dịch mua hàng.
LIDA (Learning Intelligent Distributed Agent: Tác nhân học hỏi điều phối thông minh) của Đại học Memphis có lẽ không cần phải lo lắng nhiều về nguồn vốn để tiếp tục nâng cấp. Là một dạng kiến trúc nhận thức AGI tương tự như OpenCog, một phần vốn tài trợ của LIDA đến từ Hải quân Mỹ. LIDA được dựng trên một kiến trúc (có tên IDA) sử dụng trong hải quân để tìm việc cho những lính thủy sắp giải ngũ. Và khi làm việc đó, “cô ấy” đã thể hiện những kỹ năng nhận thức sơ khai của con người, như bộ phận báo chí của trường đã mô tả dưới đây:
Cô ấy chọn một số công việc cho một lính thủy, dựa vào những yếu tố như các chính sách của Hải quân, những yêu cầu của công việc, những ưu tiên của lính thủy đó, và những cân nhắc của bản thân cô ấy về các thời hạn khả thi. Sau đó cô ấy thảo luận với lính thủy đó bằng tiếng Anh qua nhiều email về việc chọn lựa công việc. IDA chạy qua một vòng lặp nhận thức trong đó cô ấy cảm nhân các môi trường, nội và ngoại; tạo ra ý nghĩa bằng cách diễn giải môi trường và quyết định xem điều gì là quan trọng; và trả lời câu hỏi duy nhất ở đây [đối với các lính thủy]: “Sắp tới tôi sẽ làm gì?”20
Cuối cùng, như chúng ta đã thảo luận ở Chương 3, có nhiều dự án AGI hiện đang ngấm ngầm diễn ra một cách có chủ đích. Những công ty được gọi là “ẩn danh” đó thường công khai về mục đích, như Adaptive AI của Voss chẳng hạn, nhưng giữ bí mật về công nghệ. Đó là vì họ không muốn tiết lộ công nghệ của mình cho các đối thủ cạnh tranh, những kẻ nhái hàng hoặc trở thành mục tiêu của tình báo. Các công ty ẩn danh khác thì hoạt động ngầm, nhưng không ngại trong việc thu hút các khoản đầu tư. Siri, công ty đã tạo ra trợ lý cá nhân sử dụng công nghệ NLP được đón nhận khá tốt trên iPhone của Apple, được thành lập với cái tên Stealth Company, đúng theo nghĩa đen là công ty ẩn danh. Đây là thông cáo trước khi thành lập trên trang web của họ:
Chúng rồi sắp thành lập một công ty sẽ trở nên hùng mạnh ở Thung lũng Silicon. Chúng tôi hướng tới việc tái thiết kế một cách cơ bản bộ mặt của thế giới tiêu dùng trên Internet. Chính sách của chúng tôi là ẩn danh, vì chúng tôi sắp bí mật hoàn thiện thứ Vĩ đại Sắp tới. Chúng tôi sẽ tiết lộ câu chuyện của mình một cách kỳ vĩ, sớm hơn những gì bạn nghĩ… 21
Giờ hãy xét đến vấn đề vốn tài trợ và DARPA, và một câu chuyện kỳ lạ lại dẫn đến Siri.
Từ những năm 1960 cho đến những năm 1990, DARPA đã rót vốn cho nghiên cứu AI nhiều hơn các công ty tư nhân và bất kỳ cơ quan chính phủ nào.22 Nếu không có tài trợ của DARPA, cuộc cách mạng máy tính có lẽ đã không xảy ra; nếu trí tuệ nhân tạo có phát triển thì cũng phải nhiều năm sau. Trong “thời kỳ vàng son” của AI vào những năm 1960, cơ quan này đầu tư vào nghiên cứu AI cơ bản tại Đại học CMU, MIT, Stanford, và Viện nghiên cứu Stanford. Nghiên cứu AI tiếp tục phát triển hưng thịnh tại những cơ sở này, và quan trọng là tất cả trừ Stanford ra đều công khai thừa nhận kế hoạch chế tạo AGI, hoặc một thứ rất gần với nó.
Nhỉều người biết rằng DARPA (lúc đầu là ARPA) đã tài trợ cho một nghiên cứu phát minh ra Internet (lúc đầu là ARPANET), cũng như đã tài trợ cho những nhà nghiên cứu phát triển một thứ phổ biến hiện nay, GUI, hay Graphical User Interface (Giao diện đồ họa người dùng), phiên bản bạn vẫn nhìn thấy mỗi khi dùng máy tính hay điện thoại thông minh. Thế nhưng cơ quan này cũng là người hậu thuẫn chính của phần mềm và phần cứng xử lý song song, điện toán phân tán, thị giác máy tính, và xử lý ngôn ngữ tự nhiên. Các đóng góp này vào những nền tảng cơ bản của ngành khoa học máy tính cũng quan trọng đối với ngành AI như việc tài trợ hướng đích đặc thù hiện nay của DARPA.
DARPA đang dùng tiền của mình thế nào? Ngân sách hằng năm gần đây phân phối 61,3 triệu đô-la cho hạng mục Máy học, và 49,3 triệu đô-la cho Điện toán nhận thức. Nhưng các dự án AI cũng được tài trợ trong hạng mục Công nghệ thông tin và truyền thông với 400,3 triệu đô-la, và Các chương trình Mật với 107,2 triệu đô-la.23
Như được mô tả trong ngân sách của DARPA, các mục tiêu của Điện toán nhận thức là rất tham vọng, y như những gì bạn có thể tưởng tượng.
Chương trình Các hệ thống điện toán nhận thức… đang phát triển cuộc cách mạng tiếp theo trong điện toán và công nghệ xử lý thông tin, thứ sẽ cho phép các hệ thống điện toán có khả năng suy luận và học hỏi, có trình độ tự động vượt xa những hệ thống hiện nay.
Khả năng tư duy học hỏi và thích nghi sẽ đưa điện toán đến những tầm cao mới về năng lực và cho ra những ứng dụng mới đầy mạnh mẽ. Dự án điện toán nhận thức sẽ phát triển các công nghệ nòng cốt giúp các hệ thống điện toán có thể học, lý luận và áp dụng kiến thức thu được qua kinh nghiệm, phản ứng một cách thông minh với những thứ mà nó chưa gặp bao giờ.
Những công nghệ này sẽ khiến các hệ thống biểu đạt nhiều hơn sự tự chủ, khả năng tái cấu hình để tự thích nghi, thương thuyết thông minh, hành xử hợp tác và khả năng sống sót với ít sự can thiệp của con người.24
Nếu điều đó nghe có vẻ giống AGI, thì đó là vì có những lý do tốt để tin rằng chính là như vậy. DARPA không tự nghiên cứu và phát triển AI, nó tài trợ để những người khác làm việc đó, cho nên tiền từ ngân quỹ của nó hầu như toàn được rót vào các trường đại học dưới dạng hỗ trợ nghiên cứu. Vì thế, ngoài những dự án AGI mà chúng ta đã nhắc tới, trong đó các nhà chế tạo AI bán những sản phẩm phụ để tự tài trợ cho mình, có một nhóm nhỏ được tài trợ tốt hơn, gắn liền với các viện nghiên cứu nói trên và được DARPA hỗ trợ. Ví dụ, SyNAPSE của MIT mà chúng ta đã thảo luận ở Chương 4, là một thử nghiệm được DARPA tài trợ hoàn toàn nhằm xây dựng một máy tính với bộ não có chức năng và hình dạng tương đương với não của động vật có vú. Bộ não đó sẽ được lắp trước tiên ở những robot được chờ đợi sẽ có trí thông minh cỡ chuột và mèo, và cuối cùng sẽ là các robot hình người. Tám năm qua, SyNAPSE đã tiêu tốn của DARPA 102,6 triệu đô-la. Cũng giống như vậy, NELL của CMU hầu như được DARPA tài trợ, và một số trợ giúp thêm từ Google và Yahoo.
Bây giờ hãy trở lại với Siri. CALO là dự án được DARPA tài trợ để chế tạo Trợ lý (Assistant) Nhận thức (Cognitive), thứ có khả năng Học (Learns) và Tổ chức (Organizes), một dạng Radar O’Reilly⦾ kỹ thuật số. Cái tên này được lấy cảm hứng từ “calonis,” tiếng Latin nghĩa là “người phục vụ binh sĩ.” CALO được sinh ra tại SRI International, trước đây có tên Viện nghiên cứu Stanford (Stanford Research Institute), một công ty được tạo ra để kinh doanh các sản phẩm phụ từ các dự án mà trường đang nghiên cứu. Mục đích của CALO? Theo như trang web của SRI:
Mục tiêu của dự án là tạo ra các hệ thống phần mềm nhận thức, nghĩa là các hệ thống có thể suy lý, học từ kinh nghiệm, sai bảo được, giải thích được nó đang làm gì, suy ngẫm từ những kinh nghiệm bản thân, và có phản ứng tốt trước chuyện bất ngờ.25
Trong bản thân kiến trúc nhận thức của nó, CALO được cho là sẽ kết hợp các công cụ của AI, bao gồm xử lý ngôn ngữ tự nhiên, máy học, biểu thị kiến thức, tương tác người-máy và đặt kế hoạch mềm dẻo. DARPA tài trợ cho CALO trong thời gian 2003–2008 và trong dự án này có 300 nhà nghiên cứu từ 25 cơ sở, bao gồm Phantom Works của Boeing, các trường Carnegie Mellon, Harvard và Yale. Trong bốn năm, nghiên cứu này đã tạo ra hơn 500 bài báo trong nhiều lĩnh vực liên quan đến AI.26 Và nó tiêu tốn 150 triệu đô-la tiêri thuế.
Thế nhưng CALO không hoạt động tốt như mong đợi. Tuy vậy, một phần của nó có triển vọng – “cơ chế thực thi” (ngược với cơ chế tìm kiếm) để làm những việc như viết các email và văn bản, thực hiện các tính toán và chuyển đổi, tìm các thông tin chuyến bay và lập ra các nhắc nhở. SRI International, công ty điều phối cả tập đoàn, đã tách Siri thành công ty riêng (từng có tên là Stealth Company trong thời gian ngắn) để lấy 25 triệu đô-la vốn đầu tư phụ trợ, và tiếp tục phát triển “cơ chế thực thi.” Vào năm 2008, Apple mua Siri với giá khoảng 200 triệu đô-la.27
Hiện nay Siri được tích hợp sâu vào iOS, hệ điều hành của iPhone. Nó là một mảnh nhỏ của thứ mà CALO hứa hẹn sẽ trở thành, nhưng đã thông minh hơn hầu hết các ứng dụng trên điện thoại thông minh khác. Thế còn những binh lính đang chờ đợi CALO? Họ cũng dùng nó – quân đội mang iPhone vào trận chiến, đã cài sẵn Siri và các ứng dụng tác chiến tối mật.28
Vì vậy, một lý do lớn cho thấy vì sao nguồn tài trợ không phải là một vấn đề đối với AGI và sẽ không làm chậm lại sự bùng nổ trí thông minh, đó là vì chúng ta đang sống trong một thế giới mà những người nộp thuế như bạn và tôi đang phải trả tiền cho việc phát triển AGI, cho từng bộ phận thông minh, qua DARPA (Siri), Hải quân (LIDA), và qua các cơ quan công khai hoặc bí mật khác của chính phủ. Thế rồi chúng ta lại phải trả lần nữa, lần này là cho các chức năng mới quan trọng trong iPhone và máy tính. Thực tế SRI International đã bán một sản phẩm phụ khác của CALO có tên Trapit. Nó là một dạng “người trợ giúp nội dung,” một công cụ tìm kiếm được cá nhân hóa kiêm khám phá web, thứ làm bạn thấy thú vị và hiển thị chúng ở cùng một chỗ.
Một lý do khác cho việc vì sao kinh tế sẽ không làm chậm lại sự bùng nổ trí thông minh: khi AGI xuất hiện, hoặc thậm chí là mới chỉ gần tới, mọi người sẽ muốn có nó. Tôi nhấn mạnh là mọi người. Goertzel chỉ ra rằng khi các hệ thống trí thông minh cấp độ con người tới, chúng sẽ tạo ra những ảnh hưởng sâu rộng trong nền kinh tế thế giới.29 Những người tạo ra AGI sẽ nhận được các khoản đầu tư cực lớn để hoàn thiện và thương mại hóa công nghệ này. Độ đa dạng của sản phẩm và dịch vụ mà các tác nhân thông minh ở mức con người có thể cung cấp sẽ là không thể tin được. Ví dụ như các công việc cổ cồn trắng ở mọi thể loại – có ai là không muốn một đội ngũ thông minh bằng con người làm những việc của con người bằng xương thịt suốt ngày mà không cần nghỉ ngơi và không bao giờ sai lầm? Ví dụ như lập trình máy tính, như Steve Omohundro đã nói ở Chương 5. Con người chúng ta là những lập trình viên tồi, còn trí thông minh máy tính sẽ làm tốt hơn hẳn chúng ta trong việc này (và sẽ sớm sử dụng hiểu biết về lập trình, đó vào bản thân chương trình của nó).
Theo Goertzel, “nếu một AGI hiểu về thiết kế của bản thân nó, nó cũng có thể hiểu và cải tiến các phần mềm máy tính khác, do đó sẽ tạo ra một cuộc cách mạng trong ngành công nghiệp phần mềm. Vì phần lớn giao dịch tài chính trên các thị trường chứng khoán Mỹ hiện tại được các phần mềm giao dịch điều khiển, một công nghệ AGI như thế sẽ dễ dàng và nhanh chóng trở nên không thể thiếu trong ngành tài chính. Quân đội và các cơ quan tình báo cũng rất dễ tìm thấy nhiều ứng dụng thực tiễn của một công nghệ như vậy. Cuộc chạy đua điên cuồng này sẽ diễn ra chi tiết thế nào còn là điều tranh cãi, nhưng ít ra chúng ta có thể chắc chắn rằng bất cứ giới hạn nào về tốc độ tăng trưởng kinh tế và môi trường đầu tư trong giai đoạn phát triển AGI sẽ trở nên không quan trọng.”30
Tiếp theo, robot hóa AGI – cho nó một cơ thể – và nhiều chân trời mới sẽ mở ra. Ví dụ những công việc nguy hiểm như khai thác mỏ, khám phá đại dương và vũ trụ, chiến tranh, hành pháp, chữa cháy. Những dịch vụ như chăm sóc người già và trẻ nhỏ, người hầu, giúp việc, trợ lý cá nhân. Rồi sẽ có robot làm vườn, lái xe, vệ sĩ và huấn luyện viền thể chất. Khoa học, y dược và công nghệ – có ngành nghề nào mà không tiến bộ vượt trội khi có những đội ngũ nhân viên thông minh như con người, làm việc không mệt mỏi và thay thế lúc nào cũng được?
Kế tiếp, như chúng ta đã thảo luận lúc trước, cạnh tranh toàn cầu sẽ khiến nhiều quốc gia đấu giá cho công nghệ này, hoặc làm cho họ có cách nhìn khác về các dự án AGI trong nước. Goertzel nói, “Nếu một mẫu AGI thử nghiệm hoạt động được đang tiến gần đến trình độ mà ở đó sự bùng nổ trí thông minh có thể xảy ra, các chính quyền trên khắp thế giới sẽ nhận thức được đây là một công nghệ cực kỳ quan trọng, và sẽ cố gắng bằng mọi giá sản xuất cho được một AGI hoàn thiện ‘trước các đối thủ.’ Thậm chí nền kinh tế cả nước có thể sẽ thanh lọc để hướng tới mục tiêu phát triển được cỗ máy siêu thông minh đầu tiên. Ngược lại với chuyện giới hạn sự bùng nổ trí thông minh, tốc độ tăng trưởng kinh tế sẽ được định nghĩa bằng nhiều dự án AGI khác nhau diễn ra khắp thế giới.”31
Nói cách khác, nhiều thứ sẽ thay đổi một khi chúng ta chia sẻ hành tinh này với một trí tuệ thông minh ngưỡng con người, và sau đó nó sẽ thay đổi một lần nữa khi sự bùng nổ trí thông minh kiểu Good diễn ra, và ASI xuất hiện.
Nhưng trước khi xem xét các thay đổi đó và những rào cản quan trọng khác đối với việc phát triển AGI và sự bùng nổ trí thông minh, ta hãy tóm lược lại câu hỏi về rào cản nguồn vốn. Nói một cách đơn giản, nó không phải là rào cản. Việc phát triển AGI không thiếu tiền, vì ba lý do. Thứ nhất, có không ít những dự án AI hẹp sẽ bổ trợ hoặc thậm chí trở thành các bộ phận của các hệ thống AI phổ quát. Thứ hai, có nhiều dự án AGI “không giấu giếm” đang hoạt động và tạo nên những đột phá quan trọng với nhiều nguồn tài trợ khác nhau, chưa kể đến những dự án ẩn danh ngẩm. Thứ ba, khi công nghệ AI tiếp cận cấp độ AGI, một dòng lũ vốn sẽ đẩy nó đến đích. Thực tế, lượng tiền này sẽ lớn đến mức giống như là đầu chuột đuôi voi. Tạm gác lại một số rào cản khác, nền kinh tế thế giới sẽ bị lèo lái bởi sự sáng tạo ra trí tuệ nhân tạo mạnh, và được tiếp sức bởi sự lĩnh hội toàn cầu ngày càng lớn về mọi cách, thứ sẽ thay đổi cuộc đời chúng ta.
Sau đây chúng ta sẽ khảo sát một rào cản quan trọng khác – sự phức tạp của phần mềm. Chúng ta sẽ tìm hiểu xem liệu thử thách trong việc chế tạo ra các kiến trúc phần mềm có trí thông minh cấp độ con người có phải đơn thuần là quá khó để thực hiện không, và liệu mọi chuyện trong tương lai có là một mùa đồng AI vĩnh cửu không.

