Liệu có thể tạo ra tri tuệ nhân tạo mà không có rủi ro khi hoạt động

Đăng bởi: Admin | Lượt xem: 2419 | Chuyên mục: Chuyện Nghề

Hoàn cảnh Gần đây trên mạng xuất hiện một cuộc tranh cãi giữa 2 vị tỉ phú nổi tiếng thế giới là Elon Musk và Mark Zuckerberg về một vấn đề khá nóng trong các diễn đàn trên mạng hiện nay, đó là liệu trí tuệ nhân tạo (AI) có nguy hiểm hay không?


Hoàn cảnh

Gần đây trên mạng xuất hiện một cuộc tranh cãi giữa 2 vị tỉ phú nổi tiếng thế giới là Elon Musk và Mark Zuckerberg về một vấn đề khá nóng trong các diễn đàn trên mạng hiện nay, đó là liệu trí tuệ nhân tạo (AI) có nguy hiểm hay không?

Trong khi Mark Zuckerburg cho rằng việc Elon Musk cảnh báo mọi người về AI là “rất vô trách nhiệm”, thì Elon Musk đã phản pháo lại trên Twitter : “Tôi đã nói chuyện với Mark về việc này. Hiểu biết của cậu ta về vấn đề là hạn chế”.

Điều này đã gây ra làn sóng trên các diễn đàn và cộng đồng đã chia làm 2 phe mỗi bên ủng hộ một người.

Tôi không có nhiều kiến thức về vấn đề này và cũng không ủng hộ bên nào, nhưng cho rằng chủ đề này rất thú vị, có pha trộn chút khoa học viễn tưởng. Tại sao Elon Musk lại cho rằng trí tuệ nhân tạo nếu không phát triển đúng hướng sẽ rất nguy hiểm. Sau khi tìm hiểu trên mạng tôi tìm thấy bài nói chuyện của một chuyên gia người Mỹ, Sam Harris, về chủ đề tương tự, và luận điểm của ông tương đồng với Musk. Mời bạn đọc theo dõi nội dung của bài nói chuyện này. Bài dịch có tham khảo nội dung của các dịch giả online.

Bài nói chuyện

Tôi chuẩn bị nói về sự thất bại của trực giác mà nhiều người trong chúng ta thường gặp phải. Nó thật ra là sự thất bại trong việc phát hiện một mối nguy hiểm nhất định. Tôi sẽ mô tả một viễn cảnh mà tôi nghĩ vừa kinh khủng vừa có thể sẽ xảy ra, và đây không phải sự kết hợp tốt khi nó xảy ra. Thế nhưng thay vì sợ, hầu hết các bạn sẽ cảm thấy rằng điều tôi đang nói thật ra rất tuyệt.

Tôi sẽ mô tả cách mà những thứ ta gặt hái được từ trí thông minh nhân tạo (AI) có thể hủy diệt chúng ta. Thực ra, tôi nghĩ rất khó để xem làm sao chúng có thể không tiêu diệt chúng ta hoặc làm cho chúng ta tự hủy diệt mình. Nhưng nếu các bạn giống tôi, bạn sẽ thấy rằng nó rất vui khi nghĩ về những điều này. Và phản ứng đó là một phần của vấn đề. OK? Phản ứng đó sẽ làm bạn lo lắng. Và nếu tôi thuyết phục được các bạn trong buổi nói chuyện này rằng chúng ta có thể sẽ phải hứng chịu một nạn đói toàn cầu, hoặc do biến đổi khí hậu hoặc do một số thiên tai khác, và rằng cháu chắt của các bạn hay của họ, rất có thể sẽ phải sống như thế này, thì bạn sẽ không nghĩ, “Tuyệt vời. Tôi thích buổi nói chuyện này.”

Nạn đói không vui vẻ gì đâu. Tuy nhiên cái chết do khoa học viễn tưởng lại rất hài hước. mà một trong số những thứ làm tôi lo lắng nhất về việc phát triển AI là chúng ta dường như không thể sắp xếp một phản ứng cảm xúc thích hợp nào cho những mối nguy hiểm trước mắt. Tôi không thể sắp xếp thứ phản ứng này, nên tôi mới đưa ra buổi nói chuyện này.

Nó như thể chúng ta đứng trước hai cánh cửa. Sau cánh cửa thứ nhất, chúng ta ngưng quá trình xây dựng các loại máy móc thông minh. Phần cứng và phần mềm máy tính không cải tiến tốt hơn nữa vì vài lí do. Giờ hãy dành thời gian suy nghĩ tại sao điều này có thể xảy ra. Ý tôi là, dựa vào giá trị của trí thông minh và sự tự động hóa, chúng ta vẫn sẽ tiếp tục cải tiến công nghệ nếu ta hoàn toàn có thể. Điều gì có thể khiến chúng ta dừng làm việc này? Một cuộc chiến hạt nhân quy mô lớn? Một đại dịch toàn cầu? Va chạm thiên thạch? Hay Justin Bieber trở thành tổng thống Mỹ?

  • Khán giả cười *

Vấn đề là, thứ gì đó sẽ phải hủy diệt nền văn minh như chúng ta đã biết. Bạn phải tưởng tượng nó sẽ phải tồi tệ như thế nào để ngăn chúng ta tiếp tục cải tiến công nghệ vĩnh viễn, thế hệ này qua thế hệ khác. Gần như theo định nghĩa, đây là thứ tồi tệ nhất xảy ra trong lịch sử nhân loại.

Vậy nên lựa chọn duy nhất, và nó nằm sau cánh cửa số hai, đó là chúng ta tiếp tục cải tiến các máy móc thông minh năm này qua năm khác. Tới một thời điểm nhất định, chúng ta sẽ tạo ra những cỗ máy thông minh hơn mình, và một khi chúng ta sở hữu các cỗ máy thông minh hơn mình, chúng sẽ bắt đầu tự cải tiến. Sau đó, chúng ta mạo hiểm với thứ mà nhà toán học Ij Good gọi là sự “bùng nổ trí tuệ” và quá trình đó có thể sẽ tiến xa ra khỏi chúng ta.

Và giờ, điều này thường hay bị biếm họa, như tôi có ở đây, nỗi sợ trước một đội quân robot độc ác sẽ tấn công chúng ta. Nhưng đó chưa phải là viễn cảnh dễ xảy ra nhất. Không phải những cỗ máy của chúng ta tự nhiên trở nên ác độc Mối lo thật sự là khi chúng ta tạo ra những cỗ máy tài giỏi hơn chúng ta quá nhiều để rồi, dù chỉ một khác biệt nhỏ nhất giữa mục tiêu của chúng và ta thôi cũng có thể hủy diệt chúng ta.

Hãy nghĩ đến mối quan hệ giữa chúng ta loài kiến. Chúng ta không ghét chúng. Chúng ta không cố tình làm hại chúng. Thực tế đôi khi chúng ta cố gắng không làm hại chúng. Chúng ta bước qua chúng trên vỉa hè. Nhưng mỗi khi sự xuất hiện của chúng xung đột cực kì với một trong các mục đích của chúng ta, Ví dụ như khi xây dựng một tòa nhà như thế này, chúng ta tiêu diệt chúng không lo lắng. Có nghĩa là một ngày nào đó khi chúng ta tạo ra các cỗ máy cho dù chúng có ý thức hay không, cũng sẽ đối xử với chúng ta theo sự bất chấp tương tự như thế.

Bây giờ, tôi nghi ngờ rằng điều này có vẻ quá xa với nhiều người Tôi cá là có một số người đang nghi ngờ rằng AI siêu thông minh có thể xảy ra, ít nhiều không thể tránh khỏi. Nhưng sau đó bạn phải tìm ra điều sai với một trong các giả định sau. Và chỉ có 3 giả định.

  1. Trí thông minh là một vấn đề của quá trình xử lí thông tin trong các hệ thống vật lí. Thực ra, điều này hơn một chút so với giả định. Chúng ta đã tạo ra trí thông minh hạn hẹp trong các cỗ máy của mình rồi, Và rất nhiều máy móc cũng đã hoạt động ở mức độ của trí thông minh siêu việt rồi. Và chúng ta biết rằng chỉ có vật chất mới có thể tạo cơ hội cho “trí thông minh không giới hạn,” một khả năng suy nghĩ linh hoạt trên nhiều lĩnh vực, bởi vì bộ não chúng ta quản lí nó. Đúng chứ? Ý tôi là, chỉ có các hạt nhân trong đây, và miễn là chúng ta tiếp tục xây dựng hệ thống các nguyên tử để biểu lộ những hành động thông minh nhiều hơn nữa, cuối cùng chúng ta sẽ, trừ khi chúng ta bị gián đoạn, cuối cùng chúng ta sẽ xây dựng được trí tuệ không giới hạn cho máy móc của mình. Cần phải nhận ra rằng tiến độ không quan trọng. bởi vì bất kì quá trình nào cũng đủ để đưa chúng ta vào khu vực kết thúc. Ta không cần định luật Moore để tiếp tục. Ta không cần phát triển theo cấp số nhân. Chúng ta chỉ cần tiếp tục bước đi.
  2. Giả định thứ hai là chúng ta sẽ tiếp tục đi. Chúng ta tiếp tục cải tiến những cỗ máy thông minh của mình. Và dựa vào giá trị của trí thông minh — Ý tôi là, trí thông minh hoặc là nguồn gốc của tất cả mọi thứ chúng ta đánh giá hoặc chúng ta cần nó để bảo vệ tất cả mọi thứ chúng ta coi trọng. Nó là tài nguyên quý giá nhất của chúng ta. Vì thế chúng ta muốn làm điều này. Chúng ta có những vần đề nhất định phải liều mạng giải quyết. Chúng ta muốn chữa khỏi các căn bệnh như Alzheimer hay ung thư. Chúng ta muốn nắm vững hệ thống kinh tế. Chúng ta muốn cải thiện khoa học khí hậu. Cho nên chúng ta sẽ làm nó nếu có thể. Tàu đã rời khỏi trạm, và không thể kéo phanh nữa.
  3. Và điều cuối: chúng ta không đứng trên đỉnh cao của trí thông minh, hay có thể là chỗ nào đó gần nó. Và điều này thực sự là cái nhìn sâu sắc quan trọng. Đây là thứ làm tình trạng của chúng ta bất ổn, và nó cũng làm trực giác của chúng ta về rủi ro trở nên không đáng tin.

Bây giờ hãy xem xét một người thông minh nhất trên đời. Hầu như trong danh sách của các bạn đều sẽ có tên John von Neumann. Ý tôi là, ấn tượng mà von Neumann tạo ra đối với mọi người xung quanh, và nó cũng bao gồm những nhà toán học và vật lí vĩ đại ở thời của ông ta, được lưu truyền khá tốt. Nếu một nửa câu chuyện về ông chỉ đúng 50%, không cần bàn cãi ông là người thông minh nhất từng sống trên đời. Vậy hãy xét về chuỗi phân bố của trí thông minh. Ở đây là John von Neumann. Tiếp theo là các bạn và tôi. Và tiếp là con gà.

  • Show con gà trên biểu đồ trí thông minh, đứng ngay cạnh con người*
  • Khán giả cười *

Xin lỗi, một con gà.

  • Sửa lại, để vị trí con gà ở phía dưới cách xa con người *
  • Khán giả lại cười *

Không lí do gì tôi phải làm buổi nói chuyện này tệ hại hơn cần thiết.

  • Khán giả cười *

Tuy nhiên, có vẻ có khả năng rất lớn là chuỗi phân bố trí thông minh mở rộng ra xa hơn nhiều so với những gì chúng ta tưởng tượng, và nếu chúng ta tạo ra những cỗ máy thông minh hơn mình, chúng có thể sẽ khai phá dải phân bố này theo cách ta không thể tưởng tượng, và vượt xa chúng ta theo cách ta không thể tưởng tượng.

Và quan trọng là nhận ra rằng điều này đúng với tính hấp dẫn của sự mau lẹ. Đúng chứ? Hãy cứ tưởng tượng nếu ta tạo ra một AI siêu thông minh mà không tài giỏi hơn nhóm các nhà nghiên cứu trung bình ở Stanford hay MIT. Vâng, các mạch điện tử hoạt động nhanh hơn khoảng một triệu lần so với các mạch sinh hóa, nên cỗ máy này có thể suy nghĩ nhanh hơn khoảng một triệu lần so với trí não đã tạo ra nó. Rồi bạn cài đặt nó chạy một tuần, và nó sẽ thực hiện 20.000 năm làm việc ở trình độ trí tuệ của con người, tuần này qua tuần khác. Thậm chí làm sao ta hiểu được, dù ít nhiều hạn chế, một bộ óc thực hiện kiểu quá trình như vậy?

Một điều khác thật sự đáng lo lắng, đó là, tưởng tượng ra một viễn cảnh tốt nhất. Nào hãy tưởng tượng chúng ta tìm ra một thiết kế cho AI siêu thông minh mà không có các vấn đề an toàn. Lần đầu tiên chúng ta có được một bản thiết kế hoàn hảo. Nó như thể chúng ta nhận được một lời tiên tri xảy ra chính xác như trong dự định. Vâng, cỗ máy này sẽ là một thiết bị tuyệt vời giúp tiết kiệm nhân lực. Nó có thể thiết kế một cỗ máy có khả năng tạo ra cỗ máy khác thực hiện các công việc thể chất, chạy bằng ánh sáng mặt trời, nhiều hơn hoặc ít hơn cho các chi phí nguyên liệu. Vậy chúng ta đang nói tới sự kết thúc cho nỗi cực nhọc của con người. Chúng ta cũng nói về sự chấm dứt cho các công việc trí óc.

Vậy loài khỉ giống chúng ta sẽ làm gì trong tình huống này? Vâng, chúng ta được tự do chơi Frisbee và nhắn tin với từng người. Thêm vài LSD và vài lựa chọn cho bộ quần áo đáng ngờ, và cả thế giới sẽ như ở Burning Man.

Bây giờ, điều đó có lẽ nghe rất tốt, nhưng thử hỏi bản thân xem điều gì sẽ xảy ra dưới trật tự kinh tế và chính trị của chúng ta bây giờ? Có vẻ là chúng ta sẽ chứng kiến một mức độ phân biệt giàu nghèo và nạn thất nghiệp chưa từng thấy trước đây. Sự thiếu tự nguyện trong việc lập tức đưa sự giàu có mới này vào phục vụ cho toàn nhân loại, một vài “tỷ tỷ phú” đươc vinh danh trên trang bìa của các tờ tạp chí kinh tế trong khi phần còn lại của thế giới thì chịu cảnh chết đói.

Người Nga và Trung Quốc sẽ làm gì khi họ nghe được tin một số công ty trong Thung lũng Silicon chuẩn bị triển khai một AI siêu thông minh? Cỗ máy này có khả năng sẽ tiến hành chiến tranh dù cho trên mặt đất hay trên mạng, với sức mạnh chưa từng có. Đây là viễn cảnh “thắng làm vua”. Dẫn trước sáu tháng trong cuộc đua này tương đương với bị dẫn trước 500.000 năm, ít nhất là vậy. Vì vậy, thậm chí nó có vẻ chỉ là những tin đồn cho kiểu đột phá như thế nhưng cũng đủ khiến loài người cáu tiết.

Và giờ, một trong những điều đáng sợ nhất, theo tôi nghĩ ngay tại thời điểm này, chính là những thứ mà các nhà nghiên cứu về AI nói khi họ muốn được yên tâm. Và thời gian là lí do thường nhất cho việc chúng ta không cần phải lo lắng. Các bạn biết không, đây là một con đường dài. Có thể là 50 hay 100 năm nữa. Một nhà nghiên cứu đã nói, “lo lắng về độ an toàn của AI cũng như lo lắng về bùng nổ dân số trên sao Hỏa.” Đây là phiên bản của Thung lũng Silicon về việc “đừng làm cái đầu nhỏ của bạn lo lắng về nó.”

Có vẻ chả ai chú ý rằng xem xét trên phạm vi thời gian là hoàn toàn vô căn cứ. Nếu trí thông minh chỉ là một vấn đề về xử lí thông tin, và chúng ta tiếp tục cải tiến các cỗ máy, chúng ta sẽ tạo ra được vài dạng của siêu trí tuệ. Và chúng ta không biết sẽ tốn bao nhiêu thời gian để tạo ra những điều kiện thực hiện việc này một cách an toàn. Tôi xin nhắc lại. Chúng ta không biết sẽ tốn bao nhiêu thời gian để tạo ra những điều kiện thực hiện việc này một cách an toàn.

Và nếu bạn chưa nhận ra, 50 năm không còn như xưa Đây là 50 năm tính theo nhiều tháng. Đây là thời gian chúng ta tạo ra iPhone. Đây là thời gian “Gia đình Simpson” được chiếu trên TV. 50 năm không quá nhiều để thực hiện một trong số những thử thách lớn nhất mà loài người từng đối mặt. Một lần nữa, chúng ta có vẻ không thế đưa ra một phản ứng cảm xúc phù hợp cho thứ mà chúng ta có đủ lí do để tin rằng nó sẽ xảy ra.

Nhà khoa học máy tính Stuart Russell có một phép loại suy rất hay ở đây. Ông nói, tưởng tượng chúng ta nhận được tin nhắn từ nền văn minh ngoài hành tinh, ghi rằng: “Loài người trên Trái Đất, Chúng ta sẽ đáp xuống hành tinh các người trong 50 năm nữa. Chuẩn bị đi.” Và giờ chúng ta chỉ đếm ngược từng tháng đến khi phi thuyền mẹ đáp xuống? Chúng ta sẽ cảm thấy nhiều cấp bách hơn.

Một lí do khác bảo chúng ta không nên lo lắng là các cỗ máy này không làm gì khác ngoài chia sẻ giá trị với chúng ta bởi vì chúng thật sự sẽ là những phần mở rộng của chúng ta. Chúng sẽ được cấy vào não chúng ta, và chúng ta về cơ bản trở thành hệ thống cảm xúc của chúng. Giờ hãy xem xét rằng con đường an toàn và đầy thận trọng duy nhất phía trước, được đề xuất, chính là cấy trực tiếp công nghệ này vào não chúng ta. Hiện giờ nó có lẽ thật sự là con đường an toàn, thận trọng duy nhất, nhưng thường thì mối lo lắng an toàn của một người về công nghệ phải được tính toán khá kĩ càng trước khi bạn đính nó vào đầu mình.

Vấn đề sâu hơn là xây dựng một AI siêu thông minh riêng lẻ có vẻ dễ dàng hơn là tạo ra một AI siêu thông minh và có được ngành khoa học thần kinh hoàn chỉnh mà cho phép chúng ta chúng ta tích hợp trí óc của mình và nó. Và giả sử các công ty và các chính phủ làm việc này có thể sẽ nhận ra bản thân đang trong cuộc đua chống lại loài người, giả sử rằng thắng cuộc đua này là có cả thế giới, miễn là bạn không hủy diệt nó vào thời điểm kế tiếp, thì nó có vẻ như là bất kể cái gì dễ hơn sẽ được hoàn thành trước.

Bây giờ, đáng tiếc là tôi không có giải pháp cho vấn đề này, ngoại trừ đề nghị chúng ta cần nghĩ về nó nhiều hơn. Tôi nghĩ chúng ta cần thứ gì đó như Manhattan Project trong chủ đề về trí thông minh nhân tạo. Không vì để tạo ra nó, bởi tôi nghĩ chúng ta chắc chắn sẽ làm được, mà để hiểu cách ngăn ngừa cuộc chạy đua vũ trang và xây dựng nó theo cách phù hợp với lợi ích của chúng ta. Khi chúng ta nói về AI siêu thông minh có thể tự thay đổi, có vẻ như chúng ta chỉ có một cơ hội để làm những điều kiện ban đầu đúng đắn, và thậm chí sau đó chúng ta sẽ cần phải ta hứng chịu những hậu quả kinh tế chính trị khi làm nó đúng đắn.

Nhưng khoảnh khác ta thừa nhận rằng xử lí thông tin là nguồn gốc của trí thông minh, rằng một số hệ thống tính toán phù hợp là nền tảng cho trí thông minh và chúng ta thừa nhận rằng chúng ta tiếp tục cải tiến những hệ thống này, và chúng ta thừa nhận rằng chân trời của nhận thức có thể rất xa so với những gì chúng ta đang biết, thì chúng ta phải công nhận rằng chúng ta đang trong quá trình tạo ra một loại thánh thần. Bây giờ sẽ là thời điểm tốt để chắc chắn rằng nó là thánh thần mà chúng ta có thể sống chung.

Kết luận

Luận điểm của Musk và Harris liệu có chuẩn xác? Bên cạnh luận điểm này còn có những ý kiến phản bác như còn lâu chúng ta mới có đủ trình độ để build một AI như vậy, hoặc là giới hạn vật lý của các thiết bị hiện tại không cho phép ta buiild AI như vậy, hoặc ta hoàn toàn có thể chế tạo ra AI một cách có kiểm soát…

Thời gian sẽ cho ta câu trả lời về tính đúng đắn của các ý kiến này. Và từ giờ cho tới lúc có kết quả rõ ràng, tôi tin là con người sẽ tiếp tục cải tiến các AI để thử thách giới hạn trí tuệ của nhân loại cũng như để hỗ trợ cho chính chúng ta.

vncoder logo

Theo dõi VnCoder trên Facebook, để cập nhật những bài viết, tin tức và khoá học mới nhất!