Từ tháng 3-2024 đến nay có ít nhất 3 công ty niêm yết tại Mỹ
bị Ủy ban Chứng khoán Mỹ (SEC) cáo buộc đã sử dụng chiêu thức “AI Washing”. Đây
là tội gì? Nó có phổ biến không?
Nói cho đơn giản, giả dụ bạn đang viết một kế hoạch kinh
doanh trên máy tính xách tay. Thỉnh thoảng phải dùng Google để tìm kiếm tài liệu
nên có thể khoe đã sử dụng thuật toán tìm kiếm tân kỳ; viết xong dùng chức năng
kiểm tra chính tả tuyệt vời của Microsoft; đôi lúc gặp cụm từ khó chưa hiểu
nghĩa bèn dùng ChatGPT đa năng để hỏi han. Vậy cuối cùng bạn có thể kết luận kế
hoạch kinh doanh của bạn được biên soạn có sử dụng trí tuệ nhân tạo (AI) trong
mọi bước đi, tích hợp các mô hình học máy, kết hợp với AI tạo sinh được chăng?
Nếu bạn khoe như vậy, đó chính là một dạng “AI Washing” mà SEC đang cảnh báo –
nói nôm na theo tiếng Việt là “Nổ AI”.
Cá nhân “nổ AI” không ai nói làm gì nhưng công ty mắc lỗi
“AI Washing” sẽ gây hiểu nhầm cho giới đầu tư, làm họ bỏ tiền ra mua cổ phiếu
vì cứ tưởng công ty đang đầu tư mạnh vào một lãnh vực đang nóng là AI. Chủ tịch
SEC, Gary Gensler đã nhiều lần cảnh báo các công ty không được “nổ” quá thực tế
ứng dụng AI vì như thế họ đang vi phạm luật chứng khoán. Giải thích một cách
chính thức thì “AI Washing” được xem là một chiêu thức marketing một số công ty
sử dụng để phóng đại tầm mức ứng dụng công nghệ AI trong các sản phẩm của họ. Mục
tiêu là nhằm biến sản phẩm của công ty có vẻ hiện đại hơn thực tế, tận dụng mối
quan tâm và sự thổi phồng quanh AI. Sở dĩ gọi là “AI Washing” bởi trước đó đã
có khái niệm “Greenwashing”, để chỉ các chiêu thức một số công ty sử dụng nhằm
tạo cảm giác họ đã nổ lực có những bước tiến mạnh theo hướng sản xuất xanh, sạch,
bảo vệ môi trường trong khi thực tế không phải như vậy.
Mới đây nhất, vào giữa tháng 6-2024, SEC kiện nhà sáng lập,
cựu tổng giám đốc điều hành Joonko, một nền tảng tuyển dụng trực tuyến, từng
tuyên bố họ sử dụng AI để kết nối các công ty cần tuyển dụng với các ứng viên
xuất thân từ các nhóm người ít được chú ý. Trong số các cáo buộc, SEC cho rằng
Joonko hoàn toàn không sử dụng gì dính líu đến AI như họ khoe. Ngoài ra người
sáng lập còn bị các cáo buộc khác như giả mạo hợp đồng, chỉnh sửa các bản sao
kê ngân hàng, báo cáo thổi phồng số lượng khách hàng của công ty.
Vào tháng 3-2024, hai công ty Delphia và Global Predictions đồng
ý nộp tổng cộng 400.000 đô-la để giải quyết đơn kiện của SEC cho rằng cả hai
đưa ra những tuyên bố sai và gây hiểu nhầm về việc sử dụng AI. Delphia từng khoe
biết cách làm cho trí tuệ nhân tạo của họ thông minh hơn nên có thể dự báo công
ty nào hay xu hướng nào sẽ nổi trội để mọi người có thể đầu tư vào chúng sớm
hơn những người khác. Global Predictions thì tuyên bố họ là nhà tư vấn tài
chính AI đầu tiên được quản lý và nền tảng của họ cung cấp các dự báo do chuyên
gia AI dẫn dắt. Dù vậy cả hai đều không thừa nhận hay bác bỏ cáo buộc của SEC.
Nhiều luật sư cho rằng nỗ lực của SEC trong thời gian qua tương
tự những gì họ từng làm vào thời kỳ đầu nóng sốt các loại tiền mã hóa. Hilary
Allen, một giáo sư luật của trường American University cho rằng lúc nào cũng có
những người cố tình lợi dụng công nghệ để hưởng lợi. Giai đoạn này dễ phát hiện
vì chưa tinh vi, chỉ e rằng sau này có những nỗ lực kín đáo khoe ứng dụng AI
khó lật tẩy hơn.
Một cách để phát hiện xem công ty có “nổ AI” không là đặt
câu hỏi: liệu phần mềm sử dụng trong sản phẩm có những thuật toán có khả năng tự
học để đưa ra các quyết định mới chứ không phải do lập trình để thực hiện. Cũng
cần lưu ý với người tiêu dùng bình thường ngày nay khi nghe nói đến AI họ liền
liên tưởng đến các AI tạo sinh như ChatGPT hay Gemini trong khi thật ra AI có
thể nói đến một phổ rộng rãi hơn nhiều các công nghệ sử dụng học máy để huấn
luyện dựa trên dữ liệu chứ không phải được lập trình từ trước.
Rất nhiều sản phẩm tiêu dùng ngày nay, từ tủ lạnh, máy giặt
đến máy hút bụi thực chất chỉ là có kết nối Internet để điều khiển thông qua
các ứng dụng trên điện thoại di động nhưng cũng được quảng bá là sản phẩm AI.
Phép thử kiểm tra là xem kỹ chúng có tự thực hiện được thao tác nào không do
chúng tự quyết định thực hiện dựa trên các dữ liệu đầu vào do chúng thu thập.
Hay tất cả là do chúng ta cài đặt một loạt các điều kiện trên ứng dụng rồi để
chúng lần lược tiến hành các thao tác đã được lập trình.
Trong bối cảnh ngay cả các “ông lớn” công nghệ như Google,
OpenAI hay Microsoft đều đang đau đầu với hiện tượng các chatbot của họ dễ bịa
chuyện, gọi là bị ảo giác (hallucination) thì các lời khẳng định của một công
ty nào đó cam đoan trợ lý ảo sử dụng AI tạo sinh của họ hoàn toàn chính xác
100%, không hề nói sai lần nào chắc chắn là một dạng “nổ AI”. Khi bên dưới các sản
phẩm ChatGPT, Gemini hay Copilot đều thận trọng nhắc người dùng, không nên tin hẳn
vào kết quả vì chúng có thể nói sai, một lời cam đoan ẩu như thế sẽ gây tác hại
to lớn đến người dùng cả tin, xứng đáng bị gán danh “AI Washing”.
No comments:
Post a Comment