Thursday, April 1, 2021

Vì sao người ta sợ AI đến thế?

 Vì sao người ta sợ AI đến thế?

 

Nếu chỉ một mình các nhà văn viết truyện khoa học viễn tưởng lo sợ có ngày trí tuệ nhân tạo (AI) chiếm ngự, điều khiển loài người thì không nói làm gì. Đằng này ngày càng có nhiều nhà khoa học nổi tiếng cũng cảnh báo mối nguy do AI đem lại, như Stephen Hawking từng nói: “Việc phát triển trí tuệ nhân tạo hoàn chỉnh có thể dẫn đến sự diệt vong của loài người”. Vì sao có nỗi sợ này? Không phải khi nguy cấp chỉ cần ngắt điện là tắt mọi AI sao? Về đề tài này, tờ Vox vừa có một bài dài dạng hỏi đáp rất hữu ích.

Trước hết AI là gì?

Người ta thường dùng cụm từ “trí tuệ nhân tạo” cho đủ loại chương trình máy tính thông minh, từ ứng dụng Siri trên điện thoại iPhone, chương trình dịch tự động của Google đến các phần mềm chơi cờ bất bại hay các hệ thống tinh vi có thể ứng xử như một vị thần biết hết mọi thứ trên đời. Thật ra với các nhà nghiên cứu, họ thường xếp các AI thành 2 dạng: AI chuyên biệt và AI tổng quát. AI chuyên biệt nay đã giỏi hơn người trong nhiều lãnh vực: máy móc nay đọc phim hay chẩn đoán ung thư chính xác hơn bác sĩ nhiều lần. AI tổng quát, tức thông minh đủ thứ là chưa có, chưa hề tồn tại.

Trong vài năm gần đây AI chuyên biệt đã có những bước tiến ghê gớm. Như ứng dụng dịch tự động của Google đã giỏi hơn ngày xưa nhiều lắm rồi, không còn các câu dịch ngây ngô nữa. Trong các hoạt động thường ngày, chúng ta từng tiếp xúc với nhiều dạng AI chuyên biệt như trả kết quả tìm kiếm thông tin trên Google, sắp xếp thông tin trên trang Facebook của từng người, hiển thị các video trên YouTube, giới thiệu phim, nhạc trên Netflix hay Spotify. Có những chương trình máy tính thông minh biết viết báo, soạn nhạc mà kết quả không kém gì do người làm, tốc độ thì nhanh gấp triệu lần.

Những tiến bộ này một phần là do con người đã biết cách bày cho máy tự học. Thoạt tiên phải trưng ra từng tấm hình và dạy cho máy đây là con mèo, kia là con chó nhưng sau đó nó tự học bằng cách thu thập một lượng dữ liệu khổng lồ, xử lý chúng rồi tự rút ra các quy luật cần thiết. Trong quá trình này máy đã học được các kỹ năng nhận diện hình ảnh, nhận biết ngôn ngữ chẳng khác gì quá trình học của một đứa bé. Chẳng sớm thì muộn sẽ xuất hiện các hệ thống AI tổng quát như một “túi khôn” vô hạn mà con người có thể thò tay vào khai thác.

Với những ai vẫn còn hoài nghi khả năng máy tính thông minh hơn con người, cứ thử tưởng tượng một kịch bản: người ta làm ra một hệ thống AI thua sút con người đủ mọi phương diện chỉ trừ một lãnh vực: AI này là một kỹ sư chuyên thiết kế và cải tiến các hệ thống AI sao cho ngày càng hoàn thiện hơn. Vậy là nó cứ mày mò thử sai để các sản phẩm của nó – các AI đời mới – ngày càng thông minh hơn như một vòng tròn khép kín, không cần sự can thiệp của loài người nữa.

AI gây hại ra sao?

Hiện nay dù chưa có AI tổng quát, các AI chuyên biệt đã có thể gây hại cho loài người bằng đủ cách. Dùng các chương trình viết tin tự động, người ta đã có thể đẻ ra đủ loại “tin giả” đọc vào nghe như thật và thực tế mạng xã hội đang dày đặc thông tin loại này, tức thông tin trộn lẫn giả với thật do máy nhào nặn ra rồi tự động đưa lên hàng ngàn, hàng chục ngàn tài khoản giả cũng do máy tạo ra. Các thuật toán sử dụng AI đang dựa vào thói quen của người dùng để giới thiệu video mới trên YouTube; vì người soạn thuật toán muốn giữ chân người xem càng lâu càng tốt nên chương trình AI sẽ giới thiệu các video gây nghiện, gây tò mò, y như thủ thuật viết tít câu khách của báo lá cải ngày trước.

Máy bay không người lái được điều khiển một phần do người, một phần do phân tích của AI đưa ra có thể dẫn đến cái chết của thường dân khi được sử dụng để tiêu diệt một tay khủng bố nào đó. Chương trình nhân diện gương mặt người từng dẫn tới nhiều trường hợp bắt nhầm người trong thực tế. Các trường hợp này có thể gán tác hại của AI do nhầm lẫn của con người nhưng nó hé lộ cho thấy một tương lai khủng khiếp khi AI được sử dụng nhiều hơn trong cuộc sống và sẽ quyết định nhiều thứ hơn liên quan đến sự an nguy của nhiều người.

Máy học, có nghĩa quá trình này không có sự can thiệp của con người và con người không hiểu hết các khâu máy tự học kiến thức mới. Giả thử chúng ta bảo một AI làm sao chơi game được điểm càng cao cao tốt, mục đích là để máy tự chơi và học được các kỹ năng liên quan đến chơi game. Nhưng máy tự học và thấy chỉnh sửa luật chơi từ gốc sẽ giúp nó đạt điểm tối đa. Nó sẽ đi theo con đường “tà đạo” này một cách tự nhiên, không chút áy náy chơi gian.

Stephen Hawking đã dùng ẩn dụ giết kiến để minh họa cho khả năng AI gây đại họa. Ông viết: “Có lẽ bạn không phải là người thù ghét gì lũ kiến, dí chân giết chúng chỉ vì độc ác. Nhưng giả thử bạn chịu trách nhiệm xây một đập thủy điện và gần đấy có một tổ kiến sẽ ngập trong nước, vậy là lũ kiến đi tong. Chúng ta đừng đặt con người vào vị trí của lũ kiến như thế”. Ý tưởng AI có thể gây hại cho con người xuất phát từ chỗ chúng ta giao cho AI một nhiệm vụ, chúng sẽ tìm mọi cách để thực hiện nhiệm vụ đó, bất kể sẽ có hại hay không cho con người. Ví dụ có một hệ thống AI được giao nhiệm vụ tính toán một con số nào đó, AI này nhận ra nếu dùng hết nguồn lực tính toán trên thế giới thì việc tính toán sẽ nhanh hơn và nếu dùng một vũ khí sinh học nào đó để tiêu diệt hết loài người thì nguồn lực tính toán sẽ tập trung về một mối – thế là nó sợ gì mà không cho nổ quả bom sinh học đó.

Hiện nay các chương trình máy tính đã rất phức tạp, phát hiện một lỗi đã là khó; giả thử máy có khả năng điều chỉnh chương trình, thêm vào các biến số mới, các mục tiêu mới thì loài người làm sao phát hiện kịp thời để chỉnh sửa. Nhu cầu tự thân của mọi chương trình máy tính thông minh là thu nhận thêm nguồn lực, tìm cách để cải thiện hiệu năng, chống lại mọi điều chỉnh trái ý nó hay mọi nỗ lực phá hoại nó. Đây chính là tiền đề AI trở nên “tham lam, độc ác, tàn bạo” chỉ bởi vì nó muốn thực hiện tốt nhất nhiệm vụ loài người giao cho nó dù quá trình này buộc nó dí chân giết muôn người.

Trong thực tế, một AI của Google được giao nhiệm vụ sao cho có càng nhiều người nhấp chuột vào quảng cáo càng tốt thì nó sẽ ưu tiên cho nhiệm vụ đó – bất kể quá trình này có thể cản trở người đọc báo một cách khó chịu. Các AI dùng trong nhận diện gương mặt người từng bị cho là có thiên kiến với người da màu y như trong đời thật…

Sao chúng ta không tắt máy đi nếu nó gây hại?

Nhiều người suy nghĩ trí tuệ thông minh nhân tạo mà khôn ngoan quá, con người cứ thiết kế sẵn nút tắt mở - nó có tác hại gì, chúng ta cứ ngắt điện là xong. Đã gọi là thông minh thì một hệ thống AI tinh quái sẽ biết tìm cách ngăn cản không cho người ta ngắt điện nó. Hầu như các cuốn truyện viễn tưởng về AI đều xoay quanh nỗ lực của loài người ngắt kết nối cỗ máy đang hủy diệt nhân loại và cách cỗ máy này chống lại. Quan trọng nhất, một hệ thống thông minh thật sự sẽ làm loài người mất cảnh giác, không hề hay biết nó đang hủy hoại chúng ta.

Cứ như hiện nay, ai cũng biết mạng xã hội đang làm hỏng mọi cuộc tranh luận nghiêm túc, phá hủy thay vì xây dựng các mối quan hệ, gây thù hằn hơn là kết nối mọi người lại với nhau. Thế nhưng có phải ai cũng tắt mạng xã hội ít nhất cho riêng mình được đâu. Nhiều nhà tư tưởng cho rằng các hệ thống AI sau này sẽ kết hợp để trở thành một phần của Internet lúc đó chúng hiện diện khắp nơi, biết đâu là nút tắt mở để ngắt kết nối? Lúc đó tắt một máy tính sẽ không có ý nghĩa gì nữa cả.

Các nước đã có chính sách gì chưa?

Ngày xưa lúc nhà văn viễn tưởng Isaac Asimov viết về các thế hệ robot trong tương lai thông minh tài giỏi hơn người, ông đã tự đặt ra ba nguyên tắc để khắc chế mọi tác hại bọn robot này có thể gây ra: 1) robot không được gây thương tổn cho con người, hay do không chịu hành động mà để con người bị thương tổn; 2) Robot phải tuân thủ các mệnh lệnh do con người đưa ra trừ phi lệnh đó trái với điều 1; 3) Robot phải bảo vệ sự tồn tại của chính nó miễn là điều này không mâu thuẫn với điều 1 và điều 2. Sau đó hầu như mọi nhà văn viễn tưởng khi viết về robot hay AI đều dựa chuẩn mực đạo đức trên 3 nguyên tắc này.

Điều đáng ngạc nhiên là cho đến nay chưa có một chính sách chính thức nào được công bố về các giới hạn đặt ra cho các hệ thống AI. Hình như các chính trị gia, người viết chính sách chưa hiểu hết về AI và chưa thấy mối đe dọa này như một vũ khí chính trị. Riêng các tổ chức tư nhân đã có nhiều nghiên cứu về đề tài này như tổ chức phi lợi nhuận MIRI chuyên nghiên cứu về cách thiết kế các chương trình trí tuệ nhân tạo mà con người có thể tiên đoán hành vi, nhờ thế có thể tạo ra một hành lang an toàn. Hay tổ chức OpenAI của Elon Musk thành lập vừa nghiên cứu năng lực của các hệ thống AI vừa nghiên cứu về bảo đảm tính an toàn của chúng. Hệ thống DeepMind của Google một AI tiên phong có riêng một đội ngũ lo về an toàn.

Với chúng ta, những “đại gia” công nghệ như Facebook hay Google đang biên soạn các chương trình AI nào, ứng dụng chúng vào các sản phẩm của họ ra sao, tác động tinh vi lên ứng xử của chúng ta như thế nào… chúng ta hoàn toàn không biết. Đó mới là mối nguy rõ rệt và hiển hiện chứ không hề là chuyện viễn tưởng.

 

AI - hype and reality

  AI – cường điệu và thực tế Nguyễn Vạn Phú Bạn đôi lúc có cảm giác hơi hơi mặc cảm vì chung quanh đọc đâu cũng thấy bàn về AI (trí tuệ ...