Có một thứ còn nguy hiểm hơn Cambridge Analytica đang tồn tại

Vậy sự khác biệt giữa Cambridge Analytica và những lần chúng ta bị lợi dụng khác là gì? Đó là hàng triệu người dùng thậm chí còn không biết nền tảng nào đang thu thập dữ liệu của họ và dùng chúng nhắm vào chính họ để phục vụ cho các mục đích chính trị.

Vấn đề lớn hơn ở đây là chúng ta không thể tránh khỏi những sự việc như Facebook vừa qua. Facebook vốn là một hệ thống đóng, và do đó nó đặc biệt nguy hiểm. Một hệ thống có khả năng thấy được những tương tác của bạn, kiểm soát được nội dung mà nó muốn cho bạn thấy, và có thể phân tích kết quả từ những thứ đó, là một hệ thống hoàn hảo nhằm mục đích "tối ưu hóa hành vi con người".

Theo VentureBeat, ngay cả khi chúng ta không gặp phải scandal Cambridge Analytica, sự thật vẫn không hề thay đổi: các kênh xã hội đang thu thập thông tin của chúng ta!

Lấy Twitter làm ví dụ: bạn có thể thấy bất kỳ "like" và tương tác nào mà người dùng Twitter khác thực hiện - dữ liệu đó được mở cho mọi người, và chỉ cần tận dụng Twitter API, bạn đã có thể tự động thu thập chúng. Cao hơn nữa, khi kết nối Twitter với IBM Watson hay một số dịch vụ thương mại khác, bạn sẽ có thể truy cập ngay lập tức đến hàng ngàn (nếu không muốn nói là hàng triệu) bản ghi thông tin từ những người dùng khác. Và số dữ liệu này ngay từ đầu đã không hề được xem là "riêng tư". Lúc này, bạn có thể tạo nên một hồ sơ tâm lý dựa trên các lượt "like" của người dùng, sau đó hướng dẫn nó nhắm vào ai và làm sao để có thể nhắm vào những người đó. Sau khi đã xây dựng được hồ sơ này, bạn có thể sử dụng nó vào bất kỳ việc gì bạn muốn.

Tất nhiên, "vòng lặp" này không nhất thiết phải xuất phát từ Facebook. Người ta có thể xây dựng một hồ sơ từ dữ liệu Twitter và dùng chúng trong các quảng cáo Facebook. Bạn chỉ cần hồ sơ để huấn luyện AI, và sau khi đã huấn luyện nó, công nghệ này có thể hoạt động một cách thần kỳ trên bất kỳ nền tảng nào.

Khi AI trở nên thông minh hơn, nó sẽ có thể đọc và phân tích dữ liệu từ các nguồn khác nhau. Nó sẽ không cần người dùng phải "mớm" các dữ liệu đồng bộ, hay hàng tá nhà mạng phải quét và trích xuất tín hiệu từ tiếng ồn. Ví dụ, có những công nghệ AI có thể quét hàng ngàn bản ghi chỉ trong vài phút là đã có thể trả về kết quả. Có nghĩa là AI đó có thể quét các website, tập tin, và tài liệu, sau đó lập nên một hồ sơ hoàn chỉnh về chúng ta mà không hề phá vỡ một điều luật nào về quyền riêng tư.

Thông tin đã ở sẵn ngoài kia, miễn phí với tất cả mọi người. Chúng sẽ trở thành vàng khi được xử lý bởi các bộ máy machine learning - vốn thu thập dữ liệu ở một nơi nào đó, tạo lập các hồ sơ dựa trên các dữ liệu đó, và lấp các lỗ hổng còn thiếu - tất cả chỉ trong vòng vài phút.

Rất nhiều người dùng cảm thấy họ bị Facebook điều khiển như những con rối sau scandal Cambridge Analytica, khiến họ đặt ra câu hỏi công ty này đã thu thập dữ liệu theo cách nào. Đây là câu hỏi có phần thừa thãi, bởi không sớm thì muộn, các công ty như Cambridge Analytica cũng sẽ có được dữ liệu này, ngay cả khi không có Facebook. Chúng ta thậm chí không thể đảm bảo ngay lúc này rằng scandal tương tự sẽ không xảy ra nữa. Như đã nói ở trên, các công ty có thể thu thập thông tin thông qua những phương thức hoàn toàn hợp pháp.

Vấn đề ở đây không phải là Facebook. Vấn đề là chúng ta chưa được chuẩn bị để đối phó với những mối đe dọa xung quanh mình.

Người ta lo sợ AI bởi nó có thể chiếm mất công ăn việc làm của con người, hoặc thậm chí tiêu diệt luôn cả loài người. Tuy nhiên, AI không thực sự có năng lực sáng tạo - nó chỉ có thể lặp lại những gì con người làm, đôi lúc hiệu quả hơn ban đầu. Chắc chắn có những lĩnh vực nhất định mà AI sẽ làm tốt hơn, nhưng AI còn tạo ra những cơ hội mới. Bên cạnh đó, các nỗ lực tự động hóa được các công ty lớn như Tesla áp dụng đã chứng minh rằng tận dụng AI thái quá cũng không có tính thực tiễn cao - hoặc ít nhất là chưa.

Do đó, mối quan ngại rằng AI sẽ chiếm mất công việc của chúng ta, hay tấn công chúng ta, không hề nguy hiểm và cận kề như mối quan ngại rằng con người sẽ sử dụng công nghệ này cho các mục đích mờ ám.

Ví dụ, sẽ chẳng có vấn đề gì nếu các công ty như Netflix và Facebook sử dụng hồ sơ tâm lý của chúng ta để giúp tìm bạn bè mới với những sở thích tương tự, hoặc đưa ra gợi ý về các chương trình truyền hình thú vị. Tuy nhiên, trong trường hợp Cambridge Analytica, công ty này lại sử dụng hồ sơ người dùng để suy ra một hành vi nhất định từ các đối tượng mà họ không hề hay biết - đó là một hồi chuông cảnh báo đối với tất cả mọi người.

Một nguy cơ nghiêm trọng hơn mà công nghệ này mang lại là các công ty sử dụng nội dung và các mối liên kết của bạn để thay đổi tư duy của chính bạn. Ví dụ, nếu bạn đăng tải các nội dung trong đó nêu lên những ý tưởng mà hệ thống muốn khuyên ngăn bạn không thực hiện, nó sẽ chỉ chia sẻ nội dung này với những người có quan điểm đối lập, khiến bạn nhận được một loạt các đánh giá tiêu cực và gây ra ấn tượng rằng chẳng ai đồng ý với bạn cả. Tương tự, nếu nội dung của bạn có những vấn đề mà hệ thống muốn tiếp tục được duy trì và củng cố, nó sẽ chỉ chia sẻ chúng với những người cùng quan điểm để bạn luôn nhận được những phản hồi tích cực.

Suy nghĩ xa hơn, chính quyền có tiềm năng sử dụng công nghệ này để chống lại công dân của chính họ. Ví dụ, công tác kiểm duyệt tại Trung Quốc hiệu quả đến mức tạo ra được một hệ thống đóng (như Facebook), với mọi người trong hệ thống đó cực kỳ dễ dàng bị điều khiển bởi những phương thức nói trên. Ngay cả các cơ quan an ninh (của Trung Quốc) - tương tự như Edward Snowden đã từng tiết lộ - cũng có thể kiểm soát quá trình truy cập Internet của bạn ở cấp độ router (tức ngay khi thông tin từ máy tính chuyển đến router để đi ra ngoài Internet, bạn đã bị kiểm soát rồi!).

AI sẽ không mất đi. Thông tin của chúng ta cũng vậy, chúng vẫn ở ngoài kia, và chúng ta không thể chỉ dựa vào các quy tắc, chế định pháp luật để bảo vệ chúng. Những kẻ có kiến thức sâu rộng luôn tìm cách vượt mặt các quy định bằng cách liên tục tạo ra những phương thức mới để thay đổi hành vi của chúng ta. Công nghệ blockchain có thể giúp giải quyết mọi vấn đề bảo mật này, nhưng ở thời điểm hiện tại, không phải ai cũng quen thuộc với nó, và do đó nguy cơ rò rỉ dữ liệu vẫn sẽ tiếp diễn. Alan Turing đã từng cho rằng chỉ có một cỗ máy mới có thể đánh bại một cỗ máy khác, đó là lý do chúng ta cần phải tự trang bị cho mình những công cụ AI làm đối trọng.

Một trợ lý AI có khả năng bảo vệ quyền lợi của người dùng là một giải pháp khả thi. AI này sẽ cần phải minh bạch và phi tập trung, đảm bảo rằng nó không "đi đêm" với bất kỳ bên nào khác sau lưng người dùng. AI như vậy có thể "phá bỏ vòng lặp". Ví dụ: nó có thể phát hiện các khuôn mẫu "tối ưu hóa hành vi" và hiểu được một hãng nào đó đang cố khiến bạn làm gì, và cảnh báo bạn về điều đó. Công nghệ này còn có thể thay đổi nội dung hay chặn một số phần của nội dung bạn đăng tải để hóa giải việc các AI đối thủ (AI của các nền tảng xã hội) tìm cách truy cập và phân tích chúng. Đối với vấn đề kiểm soát quá trình truy cập Internet, một trợ lý AI sẽ rất hữu dụng khi phát hiện các khuôn mẫu như vậy và tự động chia sẻ nội dung ra nhiều nền tảng khác nhau, đồng thời gửi ngược kết quả lại cho người dùng.

Phần lớn những gì chúng ta đã và đang nghĩ về AI vẫn chưa xảy ra, và nhiều thứ chúng ta chẳng hề nghĩ đến lại khiến cả thế giới phải rúng động. Rốt cuộc, thứ chúng ta đang chống lại là con người đằng sau những cỗ máy chứ không phải là bản thân những cỗ máy.

 

Theo VnReview

Tương tác trực tiếp với ICTnews trên Facebook

Nguồn: ictnews.vn