6 rủi ro từ ChatGPT mà kiểm toán nội bộ cần lưu ý

(BKTO) - Rủi ro về thông tin/câu trả lời bịa đặt, không chính xác; quyền riêng tư và bảo mật; phân biệt đối xử và bất công xã hội; sở hữu trí tuệ và bản quyền; gian lận trên mạng; bảo vệ người tiêu dùng là 6 rủi ro mà kiểm toán nội bộ (KTNB) cần thường xuyên đánh giá khi ứng dụng ChatGPT.

2(1).jpg
KTNB cần thường xuyên đánh giá các rủi ro khi ứng dụng ChatGPT. Ảnh: internet

Các ứng dụng trí tuệ nhân tạo như ChatGPT (mô hình ngôn ngữ lớn có khả năng tạo văn bản giống như đang trò chuyện với người thật chỉ với những từ khóa cơ bản) đang trở thành công cụ phổ biến tại nhiều doanh nghiệp với nhiệm vụ tra cứu thông tin, viết và chỉnh sửa báo cáo, quản lý thời gian... Tuy nhiên, trên thực tế, ứng dụng này không hoàn hảo và có thể tạo ra những rủi ro lớn khó kiểm soát.

Theo nghiên cứu của Gartner, các nhà lãnh đạo pháp lý, KTNB và tuân thủ đã xác định được 6 rủi ro mà ChatGPT gây ra, đồng thời, xem xét các biện pháp phù hợp nhất để đảm bảo doanh nghiệp, khách hàng, bên thứ ba sử dụng công cụ trí tuệ nhân tạo một cách trách nhiệm, hiệu quả, tránh mọi hậu quả pháp lý, uy tín và tài chính.

Rủi ro về thông tin/câu trả lời bịa đặt, không chính xác

Vấn đề phổ biến nhất với ChatGPT và các công cụ trí tuệ nhân tạo chatbox khác là cung cấp thông tin không chính xác, mặc dù cách trả lời có vẻ rất hợp lý. Bản thân ChatGPT cập nhật thông tin từ các nền tảng khác nhau và từ chính người dùng nên việc sao chép và truyền tải sai thông tin, đưa ra các trích dẫn khoa học, pháp lý không tồn tại là điều hoàn toàn có thể xảy ra, thậm chí xảy ra thường xuyên. Do đó, KTNB cần có đánh giá rõ ràng về rủi ro này và tư vấn cho các nhà lãnh đạo, bộ phận pháp lý và tuân thủ về việc ban hành hướng dẫn, yêu cầu nhân viên xem xét mọi thông tin do ChatGPT tạo ra để đảm bảo tính chính xác, phù hợp và hữu ích.

Rủi ro về quyền riêng tư và bảo mật dữ liệu

Theo các chuyên gia của Gartner, kiểm toán viên nội bộ cần lưu ý rằng mọi thông tin được nhập vào ChatGPT đều có thể trở thành một phần trong tập dữ liệu của ChatGPT. Như vậy, các thông tin nhạy cảm, độc quyền hoặc bí mật của tổ chức sẽ được sử dụng trong câu trả lời cho người dùng khác bên ngoài tổ chức. Rõ ràng, tổ chức cần thiết lập một khuôn khổ tuân thủ cho việc sử dụng ChatGPT và nghiêm cấm việc nhập dữ liệu cá nhân hoặc tổ chức vào các công cụ chatbox công khai.

Rủi ro về phân biệt đối xử và bất công xã hội

Bất chấp những nỗ lực của OpenAI nhằm giảm thiểu sự thiên vị và phân biệt đối xử trong ChatGPT, rất nhiều trường hợp ChatGPT đã tạo ra kết quả đầu ra vô nghĩa, không chính xác, thậm chí là phân biệt giới tính, phân biệt chủng tộc hoặc xúc phạm các cá nhân khác. Hơn nữa, phụ nữ và những người thuộc các nhóm thiểu số có nhiều khả năng bị quấy rối và bắt nạt trực tuyến.

Việc loại bỏ hoàn toàn sự thiên vị là không thể, nhưng các quy định và việc tuân thủ cần phải được cập nhật và điều chỉnh thường xuyên nhằm đảm bảo các nhân viên trong doanh nghiệp duy trì văn hóa và đạo đức. Các kiểm toán viên nội bộ có thể tham khảo ý kiến chuyên gia về chủ đề này và xây dựng một chức năng đánh giá dựa trên công nghệ nhằm kiểm soát chất lượng dữ liệu.

Rủi ro về sở hữu trí tuệ và bản quyền

ChatGPT được thường xuyên cập nhật dữ liệu, trong đó có thể bao gồm tài liệu có bản quyền. Do đó, đầu ra của thông tin mà ứng dụng này cung cấp có khả năng vi phạm bản quyền hoặc vấn đề sở hữu trí tuệ. Hiện nay, ChatGPT không cung cấp chính xác nguồn tài liệu tham khảo hoặc các giải thích về cách thông tin được tạo ra. Điều này cũng đồng nghĩa với việc KTNB phải phối hợp chặt chẽ với các nhà lãnh đạo pháp lý và tuân thủ để theo dõi thông tin đầu ra của ChatGPT. Đồng thời, yêu cầu người dùng xem xét kỹ lưỡng mọi thông tin để đảm bảo không vi phạm bản quyền hoặc quyền sở hữu trí tuệ.

Rủi ro gian lận trên mạng

Những kẻ xấu đã lạm dụng ChatGPT để tạo thông tin sai lệch trên quy mô lớn, chẳng hạn như các đánh giá, âm thanh và video giả mạo. Hơn nữa, các ứng dụng như ChatGPT cũng có khả năng bị tấn công mạng, bị thay đổi mô hình thực hiện các tác vụ, từ đó xuất hiện phần mềm độc hại hoặc lừa đảo. Với rủi ro này, KTNB cần phối hợp với nhóm an ninh mạng để tìm hiểu và đánh giá khả năng chống chịu với các cuộc tấn công. Đồng thời, tiến hành kiểm tra các nguồn thông tin, tài khoản sử dụng để xác minh chất lượng thông tin.

Rủi ro bảo vệ người tiêu dùng

Các doanh nghiệp không tiết lộ việc sử dụng ChatGPT cho người tiêu dùng (sử dụng ChatGPT để hỗ trợ khách hàng) sẽ có nguy cơ mất lòng tin của khách hàng và bị buộc tội theo nhiều quy định khác nhau. Chẳng hạn, một số nước có quy định rằng với người tiêu dùng, các tổ chức phải tiết lộ rõ ràng về việc người tiêu dùng đang giao tiếp với trí tuệ nhân tạo, chatbox tự động... Như vậy, các nhà lãnh đạo tuân thủ và pháp lý cần đảm bảo việc sử dụng ChatGPT trong tổ chức tuân thủ các quy định và luật có liên quan, đồng thời tiết lộ thông tin thích hợp cho khách hàng.

Thực tế cho thấy, việc sử dụng trí tuệ nhân tạo tại các tổ chức, doanh nghiệp chỉ mới bắt đầu và có khả năng bùng nổ trong những năm tới. Khi các ứng dụng này phát triển và nhân viên bắt đầu sử dụng chúng theo những cách khác nhau, những rủi ro mới chắc chắn sẽ xuất hiện. Các chuyên gia pháp lý, rủi ro, KTNB phải luôn cập nhật những rủi ro mới nổi này và đánh giá chúng để đảm bảo không gây ra hậu quả tiêu cực cho tổ chức./.

Cùng chuyên mục
6 rủi ro từ ChatGPT mà kiểm toán nội bộ cần lưu ý