Vì sao người ta sợ AI đến thế?
Nếu chỉ một mình các nhà văn viết truyện khoa học viễn tưởng
lo sợ có ngày trí tuệ nhân tạo (AI) chiếm ngự, điều khiển loài người thì không
nói làm gì. Đằng này ngày càng có nhiều nhà khoa học nổi tiếng cũng cảnh báo mối
nguy do AI đem lại, như Stephen Hawking từng nói: “Việc phát triển trí tuệ nhân
tạo hoàn chỉnh có thể dẫn đến sự diệt vong của loài người”. Vì sao có nỗi sợ
này? Không phải khi nguy cấp chỉ cần ngắt điện là tắt mọi AI sao? Về đề tài
này, tờ Vox vừa có một bài dài dạng hỏi đáp rất hữu ích.
Trước hết AI là gì?
Người ta thường dùng cụm từ “trí tuệ nhân tạo” cho đủ loại chương
trình máy tính thông minh, từ ứng dụng Siri trên điện thoại iPhone, chương
trình dịch tự động của Google đến các phần mềm chơi cờ bất bại hay các hệ thống
tinh vi có thể ứng xử như một vị thần biết hết mọi thứ trên đời. Thật ra với
các nhà nghiên cứu, họ thường xếp các AI thành 2 dạng: AI chuyên biệt và AI tổng
quát. AI chuyên biệt nay đã giỏi hơn người trong nhiều lãnh vực: máy móc nay đọc
phim hay chẩn đoán ung thư chính xác hơn bác sĩ nhiều lần. AI tổng quát, tức
thông minh đủ thứ là chưa có, chưa hề tồn tại.
Trong vài năm gần đây AI chuyên biệt đã có những bước tiến ghê
gớm. Như ứng dụng dịch tự động của Google đã giỏi hơn ngày xưa nhiều lắm rồi,
không còn các câu dịch ngây ngô nữa. Trong các hoạt động thường ngày, chúng ta từng
tiếp xúc với nhiều dạng AI chuyên biệt như trả kết quả tìm kiếm thông tin trên
Google, sắp xếp thông tin trên trang Facebook của từng người, hiển thị các
video trên YouTube, giới thiệu phim, nhạc trên Netflix hay Spotify. Có những
chương trình máy tính thông minh biết viết báo, soạn nhạc mà kết quả không kém
gì do người làm, tốc độ thì nhanh gấp triệu lần.
Những tiến bộ này một phần là do con người đã biết cách bày
cho máy tự học. Thoạt tiên phải trưng ra từng tấm hình và dạy cho máy đây là
con mèo, kia là con chó nhưng sau đó nó tự học bằng cách thu thập một lượng dữ
liệu khổng lồ, xử lý chúng rồi tự rút ra các quy luật cần thiết. Trong quá
trình này máy đã học được các kỹ năng nhận diện hình ảnh, nhận biết ngôn ngữ chẳng
khác gì quá trình học của một đứa bé. Chẳng sớm thì muộn sẽ xuất hiện các hệ thống
AI tổng quát như một “túi khôn” vô hạn mà con người có thể thò tay vào khai
thác.
Với những ai vẫn còn hoài nghi khả năng máy tính thông minh
hơn con người, cứ thử tưởng tượng một kịch bản: người ta làm ra một hệ thống AI
thua sút con người đủ mọi phương diện chỉ trừ một lãnh vực: AI này là một kỹ sư
chuyên thiết kế và cải tiến các hệ thống AI sao cho ngày càng hoàn thiện hơn. Vậy
là nó cứ mày mò thử sai để các sản phẩm của nó – các AI đời mới – ngày càng thông
minh hơn như một vòng tròn khép kín, không cần sự can thiệp của loài người nữa.
AI gây hại
ra sao?
Hiện nay dù chưa có AI tổng quát, các AI chuyên biệt đã có
thể gây hại cho loài người bằng đủ cách. Dùng các chương trình viết tin tự động,
người ta đã có thể đẻ ra đủ loại “tin giả” đọc vào nghe như thật và thực tế mạng
xã hội đang dày đặc thông tin loại này, tức thông tin trộn lẫn giả với thật do
máy nhào nặn ra rồi tự động đưa lên hàng ngàn, hàng chục ngàn tài khoản giả
cũng do máy tạo ra. Các thuật toán sử dụng AI đang dựa vào thói quen của người
dùng để giới thiệu video mới trên YouTube; vì người soạn thuật toán muốn giữ
chân người xem càng lâu càng tốt nên chương trình AI sẽ giới thiệu các video gây
nghiện, gây tò mò, y như thủ thuật viết tít câu khách của báo lá cải ngày trước.
Máy bay không người lái được điều khiển một phần do người, một
phần do phân tích của AI đưa ra có thể dẫn đến cái chết của thường dân khi được
sử dụng để tiêu diệt một tay khủng bố nào đó. Chương trình nhân diện gương mặt
người từng dẫn tới nhiều trường hợp bắt nhầm người trong thực tế. Các trường hợp
này có thể gán tác hại của AI do nhầm lẫn của con người nhưng nó hé lộ cho thấy
một tương lai khủng khiếp khi AI được sử dụng nhiều hơn trong cuộc sống và sẽ
quyết định nhiều thứ hơn liên quan đến sự an nguy của nhiều người.
Máy học, có nghĩa quá trình này không có sự can thiệp của
con người và con người không hiểu hết các khâu máy tự học kiến thức mới. Giả thử
chúng ta bảo một AI làm sao chơi game được điểm càng cao cao tốt, mục đích là để
máy tự chơi và học được các kỹ năng liên quan đến chơi game. Nhưng máy tự học và
thấy chỉnh sửa luật chơi từ gốc sẽ giúp nó đạt điểm tối đa. Nó sẽ đi theo con
đường “tà đạo” này một cách tự nhiên, không chút áy náy chơi gian.
Stephen Hawking đã dùng ẩn dụ giết kiến để minh họa cho khả
năng AI gây đại họa. Ông viết: “Có lẽ bạn không phải là người thù ghét gì lũ kiến,
dí chân giết chúng chỉ vì độc ác. Nhưng giả thử bạn chịu trách nhiệm xây một đập
thủy điện và gần đấy có một tổ kiến sẽ ngập trong nước, vậy là lũ kiến đi tong.
Chúng ta đừng đặt con người vào vị trí của lũ kiến như thế”. Ý tưởng AI có thể
gây hại cho con người xuất phát từ chỗ chúng ta giao cho AI một nhiệm vụ, chúng
sẽ tìm mọi cách để thực hiện nhiệm vụ đó, bất kể sẽ có hại hay không cho con
người. Ví dụ có một hệ thống AI được giao nhiệm vụ tính toán một con số nào đó,
AI này nhận ra nếu dùng hết nguồn lực tính toán trên thế giới thì việc tính
toán sẽ nhanh hơn và nếu dùng một vũ khí sinh học nào đó để tiêu diệt hết loài
người thì nguồn lực tính toán sẽ tập trung về một mối – thế là nó sợ gì mà
không cho nổ quả bom sinh học đó.
Hiện nay các chương trình máy tính đã rất phức tạp, phát hiện
một lỗi đã là khó; giả thử máy có khả năng điều chỉnh chương trình, thêm vào
các biến số mới, các mục tiêu mới thì loài người làm sao phát hiện kịp thời để chỉnh
sửa. Nhu cầu tự thân của mọi chương trình máy tính thông minh là thu nhận thêm
nguồn lực, tìm cách để cải thiện hiệu năng, chống lại mọi điều chỉnh trái ý nó
hay mọi nỗ lực phá hoại nó. Đây chính là tiền đề AI trở nên “tham lam, độc ác, tàn
bạo” chỉ bởi vì nó muốn thực hiện tốt nhất nhiệm vụ loài người giao cho nó dù
quá trình này buộc nó dí chân giết muôn người.
Trong thực tế, một AI của Google được giao nhiệm vụ sao cho
có càng nhiều người nhấp chuột vào quảng cáo càng tốt thì nó sẽ ưu tiên cho nhiệm
vụ đó – bất kể quá trình này có thể cản trở người đọc báo một cách khó chịu. Các
AI dùng trong nhận diện gương mặt người từng bị cho là có thiên kiến với người
da màu y như trong đời thật…
Sao chúng
ta không tắt máy đi nếu nó gây hại?
Nhiều người suy nghĩ trí tuệ thông minh nhân tạo mà khôn
ngoan quá, con người cứ thiết kế sẵn nút tắt mở - nó có tác hại gì, chúng ta cứ
ngắt điện là xong. Đã gọi là thông minh thì một hệ thống AI tinh quái sẽ biết
tìm cách ngăn cản không cho người ta ngắt điện nó. Hầu như các cuốn truyện viễn
tưởng về AI đều xoay quanh nỗ lực của loài người ngắt kết nối cỗ máy đang hủy
diệt nhân loại và cách cỗ máy này chống lại. Quan trọng nhất, một hệ thống
thông minh thật sự sẽ làm loài người mất cảnh giác, không hề hay biết nó đang hủy
hoại chúng ta.
Cứ như hiện nay, ai cũng biết mạng xã hội đang làm hỏng mọi
cuộc tranh luận nghiêm túc, phá hủy thay vì xây dựng các mối quan hệ, gây thù hằn
hơn là kết nối mọi người lại với nhau. Thế nhưng có phải ai cũng tắt mạng xã hội
ít nhất cho riêng mình được đâu. Nhiều nhà tư tưởng cho rằng các hệ thống AI
sau này sẽ kết hợp để trở thành một phần của Internet lúc đó chúng hiện diện khắp
nơi, biết đâu là nút tắt mở để ngắt kết nối? Lúc đó tắt một máy tính sẽ không
có ý nghĩa gì nữa cả.
Các nước
đã có chính sách gì chưa?
Ngày xưa lúc nhà văn viễn tưởng Isaac Asimov viết về các thế
hệ robot trong tương lai thông minh tài giỏi hơn người, ông đã tự đặt ra ba
nguyên tắc để khắc chế mọi tác hại bọn robot này có thể gây ra: 1) robot không
được gây thương tổn cho con người, hay do không chịu hành động mà để con người
bị thương tổn; 2) Robot phải tuân thủ các mệnh lệnh do con người đưa ra trừ phi
lệnh đó trái với điều 1; 3) Robot phải bảo vệ sự tồn tại của chính nó miễn là
điều này không mâu thuẫn với điều 1 và điều 2. Sau đó hầu như mọi nhà văn viễn
tưởng khi viết về robot hay AI đều dựa chuẩn mực đạo đức trên 3 nguyên tắc này.
Điều đáng ngạc nhiên là cho đến nay chưa có một chính sách
chính thức nào được công bố về các giới hạn đặt ra cho các hệ thống AI. Hình
như các chính trị gia, người viết chính sách chưa hiểu hết về AI và chưa thấy mối
đe dọa này như một vũ khí chính trị. Riêng các tổ chức tư nhân đã có nhiều
nghiên cứu về đề tài này như tổ chức phi lợi nhuận MIRI chuyên nghiên cứu về
cách thiết kế các chương trình trí tuệ nhân tạo mà con người có thể tiên đoán
hành vi, nhờ thế có thể tạo ra một hành lang an toàn. Hay tổ chức OpenAI của
Elon Musk thành lập vừa nghiên cứu năng lực của các hệ thống AI vừa nghiên cứu
về bảo đảm tính an toàn của chúng. Hệ thống DeepMind của Google một AI tiên
phong có riêng một đội ngũ lo về an toàn.
Với chúng ta, những “đại gia” công nghệ như Facebook hay
Google đang biên soạn các chương trình AI nào, ứng dụng chúng vào các sản phẩm
của họ ra sao, tác động tinh vi lên ứng xử của chúng ta như thế nào… chúng ta
hoàn toàn không biết. Đó mới là mối nguy rõ rệt và hiển hiện chứ không hề là
chuyện viễn tưởng.