Trí tuệ nhân tạo sẽ biến cả loài người thành nô lệ của độc tài?
Posted by k24sqhq on November 21, 2020
Di Minardi
BBC Future
20 tháng 11 2020
Các chính phủ độc tài trước đây sẽ như thế nào nếu họ không bao giờ bị đánh bại?
Đức Quốc xã chỉ dùng công nghệ của thế kỷ 20 thôi mà vẫn phải cần một cuộc chiến tranh thế giới mới ngăn được họ.
Có thể tạo ra máy 'đọc' ý nghĩ người khác?
Đập thủy điện làm thay đổi thế giới ra sao
Những lò hạt nhân 'Chernobyl' nổ chậm trong lòng đại dương
Đức Quốc xã có thể hùng mạnh đến mức nào và tồn tại lâu tới khi nào nếu họ đánh bại Mỹ trong lĩnh vực bom nguyên tử?
Việc kiểm soát công nghệ tân tiến nhất thời đó lẽ ra đã có thể củng cố sức mạnh của Đức Quốc xã và làm thay đổi tiến trình lịch sử.
Rủi ro sinh tồn
Khi nghĩ đến những rủi ro sinh tồn, trong tâm trí chúng ta thường nghĩ đến các biến cố như chiến tranh hạt nhân hoặc Trái Đất va chạm vào
tiểu hành tinh.
Tuy nhiên, có một mối đe dọa trong tương lai ít được biết đến hơn - mặc dù nó không phải là sẽ dẫn đến sự tuyệt chủng của loài người, nhưng
hậu quả cũng thảm khốc không kém.
Đó là kịch bản 'thế giới bị gông cùm' mà ở đó, giống như trong thử nghiệm tư tưởng trước đó, một nhà nước toàn trị toàn cầu sử dụng một công
nghệ hoàn toàn mới để đưa phần lớn nhân loại vào nỗi thống khổ triền miên.
Nếu nó nghe có vẻ ảm đạm đối với bạn, thì đúng thật như vậy. Nhưng nó có khả năng xảy ra không?
Các nhà nghiên cứu và triết gia đang bắt đầu suy ngẫm xem kịch bản đó có thể xảy ra như thế nào - và quan trọng hơn, phải làm gì để tránh
điều đó xảy ra.
Rủi ro sinh tồn (x-risk) là thảm họa vì chúng đẩy nhân loại vào một số phận duy nhất, giống như sự sụp đổ vĩnh viễn của nền văn minh hoặc
sự tuyệt chủng của loài người chúng ta.
Những thảm họa này có thể do nguyên nhân tự nhiên, chẳng hạn như bị va chạm vào thiên thạch hay siêu núi lửa phun trào, hoặc nguyên nhân
nhân tạo từ các nguồn như chiến tranh hạt nhân hay biến đổi khí hậu.
Để cho thảm họa kiểu đó xảy ra sẽ là "một kết thúc không tốt đẹp cho loài người" và sẽ làm thất vọng hàng trăm thế hệ từng sống trước chúng
ta, Haydn Belfield, giám đốc dự án học thuật tại Trung tâm Nghiên cứu Rủi ro Sinh tồn thuộc Đại học Cambridge, cho biết.
Hitler kiểm tra công nghệ tân tiến của Đức thời đó - điều gì đã có thể xảy ra nếu Đức Quốc xã đã đạt được những thành tựu khoa học, kỹ thuật
, công nghệ tiến bộ vượt bậc, không nước nào so được?
Toby Ord, một nhà nghiên cứu cấp cao tại Viện Tương lai Nhân loại (FHI) thuộc Đại học Oxford, tin rằng khả năng xảy ra một thảm họa sinh
tồn trong thế kỷ này do các nguyên nhân tự nhiên là chưa đến một phần 2.000, bởi vì con người đã sống sót qua 2.000 thế kỷ mà không có một
biến cố như thế.
Người phụ nữ xây nên đế chế công nghệ điện toán TQ
Dấu ấn Canada trong các dự án chinh phục không gian của Mỹ
Đập Tam Hiệp, dự án kỳ vĩ đầy tham vọng của TQ
Tuy nhiên, khi thêm xác suất xảy ra các thảm họa do con người tạo ra, Ord tin rằng khả năng sẽ tăng đến tỷ lệ giật mình, ở mức một phần
sáu.
Ông gọi thế kỷ này là 'vách núi' vì nguy cơ chúng ta đánh mất tương lai chưa bao giờ cao đến thế.
Các nhà nghiên cứu tại Trung tâm Rủi ro Dài hạn, một viện nghiên cứu phi lợi nhuận ở London, đã mở rộng 'rủi ro x' với viễn cảnh thậm chí
còn rùng rợn hơn về nỗi thống khổ.
Những 'rủi ro s' này được định nghĩa là 'sự đau khổ ở quy mô lớn, vượt xa tất cả những đau khổ có mặt trên Trái Đất cho đến nay.'
Trong những tình huống này, cuộc sống vẫn tiếp diễn đối với hàng tỷ người, nhưng chất lượng cuộc sống thấp và triển vọng ảm đạm đến mức chết
dần chết mòn còn tốt hơn là sống.
Nói tóm lại: tương lai với giá trị xấu còn tệ hơn tương lai không có giá trị nào cả.
Đó là lúc kịch bản 'thế giới bị gông cùm' xuất hiện. Nếu một nhóm hoặc chính phủ ác độc đột nhiên giành được quyền lực thống trị thế giới
bằng công nghệ và không có gì cản được họ, điều đó có thể dẫn đến thời gian dài đau khổ và tuân phục.
Phúc trình năm 2017 về những rủi ro sinh tồn từ Dự án Ưu tiên Toàn cầu, được phối hợp thực hiện giữa FHI và Bộ Ngoại giao Phần Lan, cảnh
báo rằng "tương lai dài dưới một chế độ toàn trị toàn cầu đặc biệt tàn bạo có thể còn tồi tệ hơn là việc nhân loại bị tuyệt diệt".
Giả thuyết độc nhất
Mặc dù chủ nghĩa toàn trị toàn cầu vẫn còn là một chủ đề nghiên cứu bỏ ngỏ, nhưng các nhà nghiên cứu về rủi ro sinh tồn đang ngày càng chú
ý đến nguyên nhân khả dĩ nhất: trí tuệ nhân tạo.
Một tên lửa hạt nhân được trưng bày tại Trung Quốc
Trong 'giả thuyết độc nhất', Nick Bostrom, giám đốc Viện FHI thuộc Đại học Oxford, đã giải thích làm thế nào một chính phủ toàn cầu có thể
hình thành bằng AI hoặc các công nghệ lợi hại khác - và làm thế nào mà nó không thể bị lật đổ.
Ông viết rằng thế giới với "một cơ quan ra quyết định duy nhất ở cấp cao nhất" có thể trở thành hiện thực nếu cơ quan đó "có được sự dẫn đầu
mang tính quyết định nhờ vào đột phá công nghệ trong trí tuệ nhân tạo hoặc công nghệ nano phân tử".
Sau khi lên nắm quyền, nó sẽ kiểm soát những tiến bộ công nghệ nhằm ngăn chặn những thách thức từ bên trong, chẳng hạn như giám sát hay vũ khí tự động, và với sự độc chiếm quyền hành
này, nó sẽ ổn định vĩnh viễn.
Nếu cơ quan đơn nhất đó mang tính toàn trị, cuộc sống sẽ thật ảm đạm.
Cho đến nay, ngay cả ở những quốc gia có chế độ cai trị khắc nghiệt nhất, tin tức vẫn có thể rò rỉ vào hoặc ra từ các quốc gia khác và mọi
người có thể trốn thoát. Một chế độ toàn trị toàn cầu sẽ loại bỏ ngay cả những hạt giống hy vọng nhỏ nhoi này.
Còn tệ hơn cả sự tuyệt diệt, "điều đó có nghĩa là chúng ta hoàn toàn không cảm thấy tự do nào cả, không có sự riêng tư nào cả, không có
hy vọng trốn thoát, không có cơ quan nào kiểm soát cuộc sống của chúng ta", Tucker Davey, một cây viết tại Viện Tương lai Cuộc sống ở
Massachusetts, vốn tập trung vào nghiên cứu rủi ro sinh tồn, cho biết.
"Trong các chế độ toàn trị trước đây, [có] quá nhiều sự hoang tưởng và đau khổ tâm lý bởi vì bạn không biết liệu mình có bị giết vì nói
điều gì đó sai hay không," ông nói tiếp. "Và bây giờ hãy tưởng tượng rằng thậm chí còn không cần đến một câu hỏi nào, mỗi điều bạn nói sẽ
được báo cáo và phân tích."
"Chúng ta có thể chưa có công nghệ để làm điều này," Ord cho biết trong một cuộc phỏng vấn mới đây, "nhưng có vẻ như các dạng công nghệ mà
chúng ta đang phát triển đang làm cho điều đó ngày càng trở nên dễ thực hiện. Và điều này có thể trở nên khả dĩ trong vòng 100 năm tới."
Trí tuệ nhân tạo và chế độ chuyên chế
Mặc dù cuộc sống dưới một chính quyền toàn trị toàn cầu vẫn là một viễn cảnh khó xảy ra và còn ở trong tương lai xa, nhưng trí tuệ nhân tạo
(AI) đã tạo điều kiện cho chế độ chuyên chế ở một số quốc gia và củng cố cơ sở hạ tầng ở những quốc gia khác vốn có thể bị những kẻ chuyên
chế chiếm lấy.
"Chúng ta đã chứng kiến việc chuyển dịch nhận thức, từ chỗ có những tầm nhìn rất hoang tưởng đối với những gì công nghệ có thể tạo ra, cho
đến thực tế đáng sợ là trong một số khía cạnh thì những gì chúng tạo ra rất có thể lại là cuộc sống địa ngục," Elsa Kania, học giả cao cấp
tại Trung tâm An ninh Mỹ Mới, tổ chức phi lợi nhuận lưỡng đảng vốn xây dựng các chính sách an ninh và quốc phòng quốc gia, cho biết.
Trước đây, việc giám sát đòi hỏi cần có hàng trăm nghìn người - cứ mỗi 100 công dân ở Đông Đức thì có một người chỉ điểm - nhưng giờ đây nó
có thể được thực hiện bằng công nghệ.
Tại Mỹ, Cơ quan An ninh Quốc gia (NSA) đã thu thập dữ liệu của hàng trăm triệu cuộc gọi và tin nhắn của người Mỹ trước khi họ ngừng giám sát
nội địa vào năm 2019, và ước tính có khoảng từ bốn đến sáu triệu camera theo dõi CCTV trên khắp nước Anh.
Mười tám trong số 20 thành phố bị giám sát nhiều nhất trên thế giới nằm ở Trung Quốc, nhưng London thì xếp hạng thứ ba. Sự khác biệt giữa
chúng không phải ở công nghệ mà các nước sử dụng mà là cách họ sử dụng nó.
Điều gì sẽ xảy ra nếu định nghĩa về cái gì là bất hợp pháp ở Mỹ và Anh được mở rộng ra đến bao gồm việc chỉ trích chính phủ hoặc đi theo một
tôn giáo nào đó? Đã có công nghệ để thực hành việc này và AI - mà NSA đã bắt đầu thử nghiệm - sẽ cho phép việc tìm kiếm lục lọi dữ liệu
của chúng ta được thực hiện nhanh hơn bao giờ hết.
Bên cạnh giúp tăng cường giám sát, AI cũng tạo nền tảng cho sự nở rộ của thông tin sai lệch trên mạng, một công cụ khác của những kẻ độc
tài.
Những thông tin siêu giả tạo do AI tạo dựng, vốn có thể lan truyền các thông điệp chính trị bịa đặt và nhắm vào các nhóm nhỏ trên mạng xã
theo thuật toán, đang làm cho việc tuyên truyền trở nên thuyết phục hơn. Điều này làm suy yếu an ninh nhận thức của chúng ta - khả năng
xác định điều gì là đúng và hành động dựa trên nó - điều mà các nền dân chủ dựa vào.
"Trong vài năm qua, chúng ta đã chứng kiến sự gia tăng của các bong bóng lọc và mọi người bị các thuật toán khác nhau dẫn dắt, khiến họ
tin vào các thuyết âm mưu khác nhau, và thậm chí khi đó không phải là thuyết âm mưu thì nó cũng khiến cho người ta chỉ tin vào một phần
sự thật," Belfield cho biết.
"Bạn có thể tưởng tượng mọi thứ trở nên tồi tệ hơn nhiều, đặc biệt là những thông tin toàn giả toàn tập và đại loại thế, cho đến lúc ngày
càng khó cho chúng ta, với tư cách là một xã hội, quyết định đây mới là sự thật của vấn đề, đây là những gì chúng ta phải làm với nó, và
sau đó có hành động tập thể."
Các biện pháp ngăn ngừa
Phúc trình Sử dụng Trí tuệ Nhân tạo Một cách độc hại, do Belfield và 25 tác giả từ 14 tổ chức viết, dự báo rằng các xu hướng như thế này
sẽ mở rộng các mối đe dọa hiện có đến an ninh chính trị của chúng ta và đem đến những mối đe dọa mới trong những năm
Tuy nhiên, Belfield cho biết công việc của ông khiến ông có hy vọng rằng những xu hướng tích cực, như các cuộc thảo luận dân chủ hơn về
AI và hành động của các nhà hoạch định chính sách (chẳng hạn như việc EU đang xem xét tạm dừng nhận dạng khuôn mặt ở nơi công cộng), khiến
ông lạc quan rằng chúng ta có thể tránh được số phận thảm khốc.
Davey đồng ý. "Chúng ta cần phải quyết định cách sử dụng AI nào được chấp nhận và cách nào không được chấp nhận ngay bây giờ," ông nói. "Và chúng ta cần phải cẩn thận, không cho nó kiểm soát quá nhiều cơ sở hạ tầng của chúng ta. Nếu chúng ta trang bị cho cảnh sát khả năng nhận dạng khuôn mặt và chính phủ liên bang đang thu thập tất cả dữ liệu của chúng ta, đó là khởi đầu tồi."
Nếu bạn vẫn còn nghi ngờ rằng AI có thể có quyền lực như vậy, hãy xem xét thế giới trước khi có vũ khí hạt nhân.
Ba năm trước khi xảy ra phản ứng dây chuyền hạt nhân đầu tiên, ngay cả các nhà khoa học cố gắng phát triển vũ khí hạt nhân cũng tin rằng
điều đó khó có thể xảy ra.
Nhân loại cũng vậy, họ không chuẩn bị cho đột phá hạt nhân và loạng choạng trên bờ vực của 'sự hủy diệt chắc chắn cho cả hai bên' trước khi
các hiệp ước và thỏa thuận hướng dẫn việc phổ biến thứ vũ khí chết chóc này trên toàn cầu mà không để xảy ra thảm họa sinh
Chúng ta có thể làm điều tương tự với AI, nhưng chỉ khi chúng ta kết hợp những bài học lịch sử với tầm nhìn trước để chuẩn bị cho công nghệ
lợi hại này.
Thế giới có thể sẽ không thể ngăn chặn được các chế độ độc tài như Đức Quốc xã trỗi dậy trở lại trong tương lai - nhưng chúng ta có thể
tránh giao đặt vào tay họ những công cụ để mở rộng quyền lực mãi mãi.
Bài tiếng Anh đã đăng trên BBC Future.
From: BBC News|Tiểng Việt