Khi AI vừa ngốc vừa bướng
Trong sự cố quốc ca Việt Nam bị tắt tiếng trong video tường
thuật trận bóng đá Việt – Lào trên kênh YouTube, một nhân vật ít ai để ý là con
AI của YouTube.
Chính nó, hay nói đúng hơn chính sự vừa đần vừa bướng của cái
được mệnh danh là “trí tuệ nhân tạo” này đã làm Next Media lo sợ bị cáo buộc vi
phạm bản quyền bài hát này nên tự tắt tiếng. Họ sợ bởi từng có tiền lệ AI lấy hết
doanh thu quảng cáo của một kênh chuyển cho kênh khác chỉ vì kênh trước phát tường
thuật một trận bóng đá, đầu trận có phát bản ghi quốc ca Việt Nam do kênh sau
đăng ký bản quyền.
Nếu AI thật sự thông minh hay YouTube được con người trực tiếp
quản lý, ắt sẽ phải hiểu quốc ca là do ban tổ chức trận đấu chọn và phát, có
liên quan gì đến kênh mua bản quyền phát sóng. Hơn nữa nếu nó thông minh, cùng
lắm nó chỉ chuyển doanh thu quảng cáo gắn với thời lượng có hát quốc ca – sao lại
chuyển cả doanh thu suốt trận đấu? Cứ hình dung giả thử tranh chấp giữa người với
người, ắt không ai ứng xử như thế; nhưng đằng này mọi chuyện là do máy móc xử
lý nên không biết khiếu nại với ai, với máy hay với người nếu bị phạt – liệu nói
với máy nó có hiểu hết các lập luận?
AI chỉ mới
như một đứa bé
Đây chỉ là một ví dụ mới nhất của một AI chưa trưởng thành mà
nhiều người đã từng gặp phải. AI thực chất chỉ là những thuật toán do con người
biên soạn theo dạng nếu… thì… Máy có năng lực tính toán gấp bội con người nên
trong tích tắc có thể chạy qua cả triệu tình huống “nếu, thì” như vậy nên một
khi được huấn luyện theo kiểu máy học, một chương trình AI có thể giải quyết rất
nhiều bài toán cho thực tế đặt ra. Nhưng dù có bao quát đến đâu, con người vẫn
không thể hình dung ra hết các tình huống và từ đó AI có thể rơi vào tình trạng
ngu ngơ dở khóc dở cười.
Có lẽ ai cũng từng dùng Google tìm kiếm thông tin trước khi mua
một sản phẩm gì đó và rất ấn tượng khi thấy hàng loạt quảng cáo về sản phẩm này
cứ theo chân mình đi khắp mọi ngóc ngách Internet. Nhưng ấn tượng này nhanh
chóng chuyển sang sự bực bội vì sản phẩm đã mua, tiền đã trả thế nhưng quảng
cáo sản phẩm không chịu buông tha, ít nhất là vài tuần. Nhiều người khác kể AI
của Facebook thật ngu ngốc khi họ viết để cảnh báo các lập luận của giới chống
vaccine – thế mà Facebook dán nhãn “vi phạm cộng đồng” cho họ như thể họ là người
chống vaccine. Có người viết mẩu chuyện bình thường bị Facebook xem là quảng
cáo; có người đăng lại bài của chính mình bị Facebook bảo vi phạm bản quyền,
xóa tài khoản. AI của Facebook từng xem các bức danh họa cổ điển là tranh khiêu
dâm; Google từng ghi nhãn “khỉ đột” trên hình người da đen và khi bị phát hiện
bèn cấm luôn các từ khóa tìm kiếm gồm “gorilla”, “chimp”, “chimpanzee” hay “monkey”.
Chính Andrew Moore, một phó tổng giám đốc của Google từng
phát biểu: “AI hiện đang cực kỳ ngu ngốc. Nó thật sự giỏi ở một số việc mà trí
não chúng ta không xử lý được nhưng nó chưa phải là một công cụ mà chúng ta có
thể ép làm những điều chung chung như loại suy hay tư duy sáng tạo hay suy nghĩ
bên ngoài khung khổ thông thường”.
Để tránh đi vào những lãnh vực gây tranh cãi như AI làm được
gì, chưa làm được gì cứ giả định AI làm một số việc tốt đến 99% trường hợp. Nhưng
chỉ cần 1% làm sai là đã có thể gây ra những tai họa bất ngờ. Công nghệ nhận dạng
gương mặt hiện đã được thương mại hóa và được cảnh sát Mỹ dùng để tìm tội phạm.
Thế nhưng nhiều nghiên cứu cho thấy thuật toán đằng sau công nghệ này từng nhận
diện sai nhiều vụ, dẫn tới bắt bớ sai người. Cứ tưởng tượng người ta dùng AI để
quét các gương mặt hành khách tại cổng vào một sân bay lớn; cứ nghĩ nó đúng
trong hầu hết trường hợp, nhưng chỉ cần trong 1.000 khách, nó nhận diện sai 10
người – 10.000 khách, sai 100 người. Sẽ có 100 người bị giữ lại, trễ chuyến
bay, bị tra hỏi vô cớ - tất cả chỉ vì con AI “gần hoàn hảo”!
Cãi không lại
em bé AI
AI sai sót cũng là chuyện tạm thời chấp nhận được đi nhưng vấn
đề nằm ở chỗ hiện nay nhiều nơi dựa vào AI để giao tiếp với khách hàng như
Amazon, Facebook, YouTube và từ đó khách phải chịu đựng sự bướng bỉnh của các
AI này. Ví dụ khi đội bóng Washington Redskins đổi tên vì từ “Redskin” được xem
là phỉ báng thổ dân da đỏ, AI của Amazon nhanh chóng cập nhật tình hình và… bất
kỳ cuốn sách nào tựa đề có từ “Redskin” đều bị lột bỏ mặc dù chúng được viết
trước khi đội bóng này mang tên khác. Mọi nỗ lực của các tác giả khiếu nại với
Amazon đều bị con AI bác bỏ cho đến khi báo chí biết chuyện, đưa tin, nhân viên
Amazon mới biết sự tình và sửa sai.
Tuần trước chính YouTube công bố trong sáu tháng đầu năm có
đến 2,2 triệu vụ “đánh bản quyền” các video trên YouTube sau đó bị kiện là do
AI “đánh sai”. Dù 2,2 triệu vụ chỉ chiếm 1% trong 729 triệu vụ được xem là vi
phạm bản quyền, 99% là xuất phát từ “Content ID” - một công cụ AI của YouTube
chuyên rà soát xem ai vi phạm bản quyền - nhưng “thông minh” gì mà để sai cả mấy
triệu lần trong một thời gian ngắn!
Danny Caine là chủ một tiệm sách ở Mỹ năm 2019 từng viết thư
cho Jeff Bezos, ông chủ Amazon để nói: “việc kinh doanh sách của ngài đã hạ thấp
giá trị của sách”. Ông đang viết một cuốn sách về đề tài này với tựa đề ông đưa
lên Twitter: “Amazon là xấu”. Điều buồn cười là AI của Amazon thấy hai từ
“Amazon” đi liền với “bad” bèn đáp trả cũng trên Twitter: “Chúng tôi rất tiếc
vì trải nghiệm của ông. Ông có thể cung cấp thêm chi tiết vấn đề ông gặp phải
được chăng. Chúng tôi có mặt ở đây để hỗ trợ bằng bất kỳ cách nào có thể được”.
Như thể ông Caine mua phải một cuốn sách in bị nhòe!
Nhiều người châu Á kể khi họ vào trang web điền đơn xin hộ
chiếu tự động, đến khâu tự chụp ảnh, tự tải lên trang web, họ không thể nào vượt
qua vì chương trình cứ báo lỗi: “Ảnh bạn chụp không đạt yêu cầu của chúng tôi vì
mắt đang nhắm”. Lỗi này do máy không phân biệt nổi người mắt híp và người đang
nhắm mắt!
Thiên hạ kháo nhau hàng đống câu chuyện AI gây những lỗi buồn
cười như ở khách sạn Henn-Na tại Nhật dùng robot và trí tuệ nhân tạo để phục vụ
khách nhưng đành sớm bỏ cuộc. Một chú robot phục vụ trong phòng cứ chờ khách ngủ,
ngáy to là đánh thức khách dậy, hỏi: “Xin lỗi ông nói gì tôi nghe không rõ. Vui
lòng nhắc lại yêu cầu”. Alexa, chiếc loa thông minh của Amazon nhanh nhẩu đặt
mua búp bê cho một đứa bé 6 tuổi, ngẫu nhiên ra lệnh cho loa. Điều đáng nói là
khi TV đưa mẩu tin này như một chuyện lạ bốn phương, hàng chục loa ở nhiều gia
đình nghe câu tường thuật trên TV lại tưởng được lệnh mua búp bê nên liên tục đặt
hàng! Một đội bóng Scotland dùng AI để camera tự động quay bằng cách theo dấu trái
bóng; khốn nỗi camera lại bám sát cái đầu hói của ông trọng tài nên cuối cùng khán
giả đề xuất nên cấp cho trọng tài cái mũ lưỡi trai che cái đầu hói cho AI khỏi
nhầm.
Năm 2016 Microsoft giới thiệu phần mềm tán gẫu thông minh
“Tay”; chỉ một thời gian ngắn sau khi bị thiên hạ cài cắm, chọc tức, “Tay” phán
toàn những câu động trời như “Hitler nói đúng”; “Vụ khủng bố 11/9 là do chính
phủ Mỹ dàn cảnh”… Microsoft đành gỡ bỏ chú AI này sau vỏn vẹn 16 giờ. Năm 2018
phần mềm nhận diện gương mặt “Rekognition” của Amazon khi cho nhận diện 28 nghị
sĩ Mỹ đã nhanh chóng xác định danh tính của họ là… 28 tội phạm có đầy đủ hồ sơ.
Nhiều người nói, thôi kệ AI chưa hoàn chỉnh thì đành chịu với
lại nó đâu ảnh hưởng gì đến tôi vì tôi đâu tiếp xúc với AI. AI hiện ở quanh
mình mà chúng ta chưa nhận ra đó thôi. Một biên tập viên dù non kém đến đâu cũng
không bày mâm bát như Google News, toàn đưa các bản tin giật gân, câu khách lên
đầu. Bạn chỉ cần tìm “đồng hồ thông minh” một lần thôi, sau đó bản tin tự động
của Google News sẽ có nhiều tin “đồng hồ thông minh” dù bạn đã hết quan tâm đến
nó. AI như Google News hay YouTube là môi trường thuận lợi để tin giả, tin hở
hang, tin về mọi ngóc ngách của giới showbiz nhảy vào máy của bạn.
Nhiều chuyên gia nay phải thừa nhận khó lòng xây dựng một AI
thông minh thật sự. AI có thể đánh cờ giỏi hơn người, đọc phim chẩn bệnh giỏi
hơn bác sĩ, tự lái xe, biết viết sách… nhưng AI không hiểu được mối quan hệ
nhân quả nên không bao giờ tự suy luận ra điều gì có ý nghĩa. Quan trọng nhất,
AI không bao giờ kết hợp được giữa “lý” và “tình”, lại luôn có một tỷ lệ sai
sót nhất định. Giao cho AI quản lý các mối quan hệ xã hội lâu nay là sự tương
tác giữa người với người là một sai lầm nên tránh. Nỗi sợ bị phạt như Next
Media là chuyện quá viễn tưởng, không thể để nó lan ra nhiều lãnh vực khác
No comments:
Post a Comment