Thử tưởng tượng nếu bạn nhận được một cuộc gọi cầu cứu từ mẹ bạn
vì bà không nhớ mật khẩu ngân hàng. Bạn sẽ làm gì? Chắc chắn, bạn sẽ đọc ngay
lập tức mà không có chút nghi ngờ nào chứ? Tuy nhiên, đấy thực chất không phải
là mẹ bạn. Giọng ở đầu dây bên kia chỉ là giọng giả mạo. Hay nói chính xác hơn
đó chỉ là giọng nói máy tính tổng hợp, một thành tựu của công nghệ trí tuệ nhân tạo, được tạo ra để giả mạo giọng nói của một người nào đó qua điện thoại.
Một
tình huống tưởng chừng chỉ tồn tại trong các câu chuyện khoa học viễn tưởng thì
nay đã có thực ở ngoài đời. Và nó cũng chính là tương lai của tội phạm.
Theo The
New York Times, những
phần mềm cần thiết nhằm tạo ra công nghệ giả mạo được sử dụng một cách rộng rãi
như thế này là một tiến bộ vượt bậc. Gần đây, ví dụ, DeepMind, một công ty con
thuộc Alphabet (Google) từng đánh bại nhiều game thủ hàng đầu trong bộ môn cờ
vây, đã thông báo rằng họ vừa mới thiết kế một chương trình "bắt
chước được tất cả giọng nói của con người với một ngữ điệu tự nhiên hơn rất nhiều
so với tính năng Text-to-speech (chuyển văn bản thành giọng nói), thu hẹp
khoảng cách so với giọng thực của con người trên 50%".
Trớ
trêu thay, năm nay, lại là năm của ngành công nghiệp bảo mật máy tính, với 75
tỷ doanh thu hàng năm, vừa mới thảo luận về việc làm cách nào để máy học và mô
hình kỹ thuật nhận dạng có thể cải thiện tình trạng thê lương của bảo mật máy
tính như hiện nay.
Nhưng
đây cũng là mặt trái của vấn đề.
"Điều mọi người chưa nhận thức được là tội phạm mạng đang
được tự động hóa và nó đang nhân lên thành cấp số nhân", Marc Goodman, cố vấn cho cơ quan thực thi pháp luật và tác giả
cuốn sách "Tội phạm tương lai", nói.
Các
báo động về việc sử dụng một cách ác ý công nghệ trí tuệ nhân tạo tân tiến đã
được cảnh báo từ hồi đầu năm bởi James R. Clapper, Giám đốc cơ quan Trí tuệ
Quốc gia. Trong đánh giá an ninh hàng năm, ông Clapper đã nhấn mạnh luận điểm:
khi hệ thống A.I có thể thực hiện một cách dễ dàng hơn, thì cũng là lúc các lỗ
hổng trong thế giới online được nới rộng ra.
Sự
phát triển ngày càng tinh vi của tội phạm máy tính được minh chứng bằng sự phát
triển của nhiều công cụ tấn công như các chương trình độc hại từng được sử dụng
rộng rãi có tên gọi Blackshades, theo ông Goodman. Tác giả của chương trình
này, một người Thụy Điển, đã bị kết án vào cuối năm ngoái tại Hoa Kỳ.
Hệ
thống này được bán rộng rãi trong thế giới máy tính ngầm, hoạt động như "nhượng
quyền kinh doanh liên quan đến tội phạm một cách bí mật", ông
Goodman nói. Nó cho phép người dùng không cần có kiến thức kỹ thuật mà vẫn lấy
được tiền chuộc từ máy tính hay thực hiện các video hoặc audio nghe lén chỉ
bằng một cú click chuột.
Các
thế hệ tiếp theo còn bổ sung thêm khả năng máy học từng được các nhà nghiên cứu
trí tuệ nhân tạo khởi xướng, nhằm cải thiện chất lượng của thị giác máy
(Machine Vision), hiểu được lời nói, tổng hợp giọng nói và diễn đạt ngôn ngữ
một cách tự nhiên. Một số nhà nghiên cứu bảo mật máy tính tin rằng tội phạm kỹ
thuật số đã thử nghiệm công nghệ A.I này trong hơn nửa thập kỷ qua.
Điều
này được nhìn thấy bằng nỗ lực hủy hoại sự tồn tại của Captcha, một hình thức
kiểm tra theo dạng hỏi đáp mà máy tính sử dụng để xác định xem người dùng có
phải là con người hay không, được ra mắt vào năm 2003, bởi các nhà nghiên cứu
trường Đại học Carnegie Mellon, nhằm ngăn chặn những chương trình ăn cắp tài
khoản trực tuyến tự động.
Các
nhà nghiên cứu trí tuệ nhân tạo "mũ trắng" và những tên tội phạm
"mũ đen" đều tiến hành nhiều ứng dụng thuộc thị giác máy nhằm phá vỡ
Captcha trong hơn nửa thập kỷ qua, Stefan Savage, một nhà nghiên cứu máy tính
tại Đại học California (Mỹ) cho biết.
"Nếu
bạn không thay đổi Captcha của bạn trong vòng hai năm, bạn sẽ làm chủ một vài
thuật toán thị giác máy", ông nói.
Đáng
ngạc nhiên, điều có khả năng làm chậm sự phát triển của các A.I độc hại thì nay
lại dễ dàng mua được với mức giá thấp hoặc từ nguồn lao động tự do. Ví dụ, một
số tội phạm mạng đã tạo ra chương trình phá vỡ Captcha ở những xưởng điện tử
tồi tàn nơi con người được thuê một cách rẻ mạt để giải mã câu đố.
Thậm
chí, bọn tội phạm còn nghĩ ra cách sử dụng những chương trình có nội dung khiêu
dâm online như là một phần thưởng, cho những người chịu khó lướt web để phá mã
Captcha, ông Goodman giải thích. Phần mềm AI sẽ không thế nào cạnh tranh được
với các dạng lao động như thế này trong tương lai gần.
Vậy
điều gì sẽ xảy ra?
Các
loại tội phạm, để bắt đầu, có thể chịu trách nhiệm phát triển các công nghệ
mới.
Công
nghệ nhận dạng giọng nói như Siri của Apple và Cortana của Microsoft hiện nay
được sử dụng rộng rãi để tương tác với máy tính. Hay kiểm soát giọng nói Echo
của Amazon, nền tảng chatbot Messenger của Facebook, nhanh chóng trở thành cầu
nối thương mại trực tuyến và hỗ trợ khách hàng. Đây cũng giống nhiều trường hợp
trước đó, cứ tiến bộ kỹ thuật mới nào như nhận dạng giọng nói chẳng hạn
trở thành xu thế, bọn tội phạm sẽ tìm cách lợi dụng tính năng này một cách
triệt để.
"Tôi cho rằng các công ty hỗ trợ khách hàng thông qua chatbot
đã vô tình tiếp tay cho lừa đảo phi kỹ thuật", Brrian Krebs, một phóng viên điều tra tại Krebsonsecurity.com nói.
Lừa
đảo phi kỹ thuật hay social engineering, ám chỉ đến việc thao túng người dùng
để dụ họ tiết lộ các thông tin bí mật, được nhiều người xem như là mắt xích yếu
nhất trong chuỗi bảo mật máy tính. Tội phạm mạng thường khai thác những phẩm
chất tốt nhất từ con người - đó là sự tin tưởng và sẵn sáng giúp đỡ người khác
- để ăn cắp và làm gián điệp. Khả năng tạo hình ảnh đại diện cho trí tuệ nhân
tạo có thể đánh lừa người dùng online đồng thời làm cho vấn đề trở nên tồi tệ
hơn.
Điều
này có thể thấy rõ ràng nhất là những nỗ lực của chính quyển tiểu bang và các
chiến dịch tranh cử sử dụng công nghệ chatbot một cách rộng rãi để tuyên truyền
chính trị.
Các
nhà nghiên cứu đã đặt ra thuật ngữ "tuyên truyền máy - computational
propaganda" để mô tả sự bùng nổ của những chiến dịch truyền thông giả
mạo trên các mạng xã hội như Facebook và Twitter.
Trong
một bài nghiên cứu gần đây, Philip N. Howard, một nhà xã hội học tại Viện
Internet Oxford, và Bence Kollanyi, một nhà nghiên cứu thuộc Đại học Corvinus
Budapest, đã mô tả cách thức để những chatbot chính trị đóng vai trò "nhỏ nhưng chiến lược"
trong việc định hình các cuộc trò chuyện trực tuyến trong suốt thời gian trưng
cầu dân ý của sự kiện Brexit.
Chỉ
là vấn đề thời gian trước khi những ứng dụng này được bọn tội phạm sử dụng.
"Có quá nhiều người tài giỏi trong việc thiết kế các cuộc tấn
công xã hội số, nhưng như những gì tôi biết, chưa một ai sử dụng máy học để tìm
kiếm gốc rễ một cách chất lượng nhất", Mark Seiden, một chuyên gia bảo mật máy
tính độc lập cho biết.
Nguồn VnReview




EmoticonEmoticon