Những thách thức lớn cho các tổ chức
ACCA cho biết, các mô hình AI dựa vào bộ dữ liệu mở rộng để tìm hiểu và bắt chước hành vi giống con người hoặc cung cấp những hiểu biết có giá trị. Các bộ dữ liệu này bao gồm nội dung đa dạng từ nhiều nguồn, có thể chứa dữ liệu cá nhân, dữ liệu không an toàn.
Khi các mô hình AI phát triển, các tập dữ liệu liên quan sẽ ngày càng lớn hơn, làm tăng thêm các nguy cơ, rủi ro. Các hệ thống AI được đào tạo dựa trên lượng lớn dữ liệu, nếu không được kiểm soát, các thuật toán thiên vị có thể vô tình dẫn đến các quyết định có tác động tiêu cực.
Trong quá trình hệ thống AI được đào tạo và triển khai, việc đáp ứng các yêu cầu nhất định của chủ thể có thể gặp phải một số khó khăn. Khi các hệ thống AI trở nên phổ biến, người dùng sẽ ngày càng tương tác với AI nhiều hơn và có thể bị ảnh hưởng bởi việc ra quyết định tự động. Ngoài ra, người dùng cần quản lý chặt chẽ việc dữ liệu được sử dụng như thế nào.
Trong nhiều trường hợp, các chương trình AI sẽ phản hồi dựa trên xác suất được xác định trong bộ dữ liệu huấn luyện của chúng thay vì các dữ liệu thực tế, chính xác. Điều này có thể dẫn đến những phản hồi không chính xác và gây ra sự cố nếu người dùng không xác minh tính xác thực của phản hồi từ hệ thống.
Những năm qua, nhiều vụ vi phạm dữ liệu lớn đã xảy ra, do đó, ACCA cảnh báo các tổ chức phải đảm bảo rằng, danh mục dữ liệu được lưu trữ và xử lý an toàn khi thu thập và sử dụng bộ dữ liệu mở rộng để đào tạo hệ thống AI. Một nhiệm vụ quan trọng là tránh các hành vi lừa đảo và xâm phạm dựa trên AI.
Các tổ chức phải tuân thủ và chứng minh sự tuân thủ các quy định, tiêu chuẩn hiện tại. Một số quy định, chuẩn mực gồm Quy định chung về bảo vệ dữ liệu (quy định của Liên minh châu Âu - EU - về bảo vệ dữ liệu và quyền riêng tư cho tất cả các cá nhân trong Liên minh và Khu vực kinh tế châu Âu), Đạo luật AI của EU, Khung quản lý rủi ro AI của Viện Tiêu chuẩn và Công nghệ quốc gia Hoa Kỳ…
Giải quyết thách thức, đảm bảo các giá trị của AI
Để giải quyết những mối lo ngại này, ACCA cho rằng, các tổ chức cần xem xét các thông lệ tốt nhất như thiết lập hệ thống các quy tắc, quy trình, cơ cấu, khuôn khổ và công cụ để đảm bảo việc phát triển, sử dụng hệ thống AI có đạo đức, có trách nhiệm. Các tổ chức cần bổ sung nhân sự có chuyên môn trong lĩnh vực phát triển AI, pháp lý, bảo mật thông tin và những lĩnh vực liên quan.
Nguyên tắc quyền riêng tư là nền tảng của AI có trách nhiệm và quyền riêng tư phải được thực hiện trong suốt các quá trình hoạt động. Một số hệ thống AI có tính chất rất phức tạp khiến việc phát hiện và khắc phục các vấn đề về đạo đức, quyền riêng tư và quy định sau khi triển khai trở nên khó khăn hơn. Các quy trình có rủi ro cao khi chuyển sang tự động hóa thông qua AI sẽ yêu cầu các biện pháp kiểm soát chặt chẽ và cần có yếu tố con người trong kiểm soát.
Các tổ chức phải cung cấp thông tin rõ ràng, minh bạch, xác nhận hệ thống AI được sử dụng, cách thu thập và xử lý dữ liệu… để giúp đảm bảo việc sử dụng AI có hiểu biết và tạo dựng niềm tin. Việc kiểm tra và kiểm soát thường xuyên các hệ thống AI sẽ giúp các tổ chức phát hiện kịp thời và phòng tránh nhiều rủi ro. Trong một số trường hợp, cần phải sửa đổi các mô hình học tập và kết hợp các nguyên tắc đạo đức trong đào tạo AI.
ACCA khuyến nghị thêm, các tổ chức cần tăng cường công tác quản lý dữ liệu, triển khai các công nghệ để đảm bảo tuân thủ các nguyên tắc bảo mật về giảm thiểu và lưu trữ dữ liệu. Hồ sơ cập nhật về các hoạt động xử lý cũng cần được duy trì để đảm bảo dữ liệu được quản lý hiệu quả; cần triển khai phương pháp tiếp cận dựa trên rủi ro để đánh giá mức độ rủi ro trước khi triển khai hệ thống AI; giám sát tuân thủ AI cần được tích hợp vào chương trình tuân thủ, bảo mật của tổ chức; triển khai các biện pháp như mã hóa, che giấu dữ liệu, quản lý mật khẩu, kiểm soát truy cập, bảo mật…
Vì AI là một công nghệ mới nên các tổ chức phải thường xuyên đào tạo nhân sự về cách sử dụng AI có trách nhiệm. Việc đào tạo cần chú trọng đến quyền riêng tư của hệ thống AI, tuân thủ quy định bảo vệ dữ liệu khi sử dụng AI, việc lạm dụng dữ liệu trong các cuộc tấn công mạng liên quan đến AI, cách phòng vệ cũng như các biện pháp bảo vệ dữ liệu tốt nhất…
Hiện nay, Cơ quan bảo vệ dữ liệu của Italy đã tạm thời cấm ChatGPT (một AI giúp tạo ra các cuộc trò chuyện tự động và trả lời các câu hỏi về nhiều chủ đề, lĩnh vực do OpenAI - công ty nghiên cứu AI của Hoa Kỳ phát triển) vì lo ngại rằng không có cơ sở pháp lý cho việc sử dụng các bộ dữ liệu có sẵn.
ACCA kết luận, AI có thể giúp các tổ chức, doanh nghiệp có những bước tiến nhanh hơn, xa hơn, tuy nhiên họ cũng cần những bước đi chắc chắn để cân nhắc về những ưu điểm, nhược điểm của công nghệ mới này. Các tổ chức phải chịu trách nhiệm đảm bảo rằng sự đổi mới luôn dựa trên các giá trị về quyền riêng tư, đạo đức và niềm tin của người dùng./.
(Theo ACCA)