loading...

Global Trends and Implications in AI Risk Management

Xuất hiện rủi ro mới do sự phát triển AI nhanh chóng

Trong thập kỷ qua, phần lớn mối quan tâm của công chúng về công nghệ kỹ thuật số tập trung vào khả năng rò rỉ và lạm dụng thông tin cá nhân. Để xoa dịu những lo ngại này, các nước lớn đã tập trung vào việc thiết lập các biện pháp pháp lý và thể chế để đảm bảo rằng người dùng Internet có thể kiểm soát dữ liệu cá nhân của họ, chẳng hạn như Quy định bảo vệ dữ liệu chung của EU (GDPR).

Tuy nhiên, với sự ra đời của ChatGPT 3.5 vào cuối năm 2022, AI đã trở thành một chủ đề nóng và khi công nghệ AI được đưa vào nhiều lĩnh vực khác nhau như tuyển dụng và đánh giá tín dụng trong khu vực tư nhân cũng như hỗ trợ xử lý hành chính và thử việc trong khu vực công. ngành, mối quan tâm và lợi ích của công chúng rất phức tạp và đang phát triển. Nó đã chuyển từ thuật toán sang cách thu thập và sử dụng dữ liệu. Điều này là do, trái ngược với kỳ vọng rằng AI sẽ đưa ra quyết định hợp lý trong mọi việc dựa trên dữ liệu khách quan, nó thực sự đang gây ra nhiều kết quả tiêu cực không mong muốn, chẳng hạn như củng cố sự phân biệt đối xử xã hội hoặc cung cấp thông tin sai lệch đáng tin cậy.

Các tác dụng phụ do AI gây ra có thể được chia thành ba loại. Đầu tiên là việc tiếp xúc với những thông tin sai lệch, độc hại và sai lệch. Vì dữ liệu mà AI học được được thu thập từ thế giới thực nên nó có thể loại trừ hoặc đưa vào một số nhóm nhất định, chứa nội dung có hại như bạo lực và đưa ra câu trả lời sai. Thứ hai là vấn đề bản quyền. Nếu nội dung được tạo trích dẫn hoặc sao chép một tác phẩm hiện có, các vấn đề vi phạm quyền sở hữu trí tuệ có thể được nêu ra dù cố ý hay không và những trường hợp như vậy đã được báo cáo thường xuyên gần đây. Ngoài ra, các cuộc thảo luận đang tiếp tục về mức độ công nhận bản quyền của các tác phẩm sáng tạo như thơ và tiểu thuyết do AI tạo ra. Thứ ba, tồn tại vấn đề bảo vệ thông tin do AI gây ra, đó là nguy cơ rò rỉ thông tin cá nhân và thông tin nội bộ công ty.

Bảng 1) Các loại tác dụng phụ/tranh cãi do AI gây ra.

Bảng 1) Các loại tác dụng phụ/tranh cãi do AI gây ra.
① Tiếp xúc với thông tin sai lệch, độc hại và sai lệch
  • Loại trừ hoặc lồng ghép các nhóm cụ thể.
  • Tạo nội dung có hại.
  • Cung cấp thông tin sai sự thật.
② Vấn đề bản quyền
  • Xâm phạm quyền sở hữu trí tuệ đối với nội dung được tạo ra.
  • Tranh cãi về cấp phép bản quyền cho các sản phẩm AI.
③ Bảo vệ thông tin
  • Rò rỉ thông tin cá nhân.
  • Rò rỉ thông tin nội bộ.

Ví dụ: quảng cáo trên Facebook, nơi cung cấp dịch vụ quảng cáo tùy chỉnh cho người dùng dựa trên AI, đã gây tranh cãi sau khi nghiên cứu thực nghiệm cho thấy rằng chúng có thành kiến dựa trên chủng tộc và giới tính. Người ta tiết lộ rằng khoảng 85% tin tuyển dụng nhân viên thu ngân siêu thị tiếp cận với phụ nữ, khoảng 75% tin tuyển dụng tài xế taxi tiếp xúc với người da đen, trong khi quảng cáo bán nhà được tiết lộ cho người da trắng và quảng cáo cho thuê tương đối tiếp xúc nhiều hơn với người da đen. . Khu vực công không có nhiều khác biệt. Bộ Nội vụ Anh đã sử dụng AI để xử lý việc phê duyệt thị thực, nhưng một vấn đề đã được báo cáo trong đó việc sàng lọc những người xin thị thực từ các quốc gia có đông dân số không phải da trắng bị trì hoãn mà không có lý do. Cuối cùng, nhà chức trách thông báo sẽ kiểm tra hoạt động của hệ thống xử lý và ngừng sử dụng AI.

Vấn đề bản quyền cũng liên tục được đặt ra. Về cơ bản, AI học hỏi từ dữ liệu hiện có, một số dữ liệu đó được bảo vệ bản quyền. Bằng cách sử dụng dữ liệu này, AI được đào tạo để tạo ra các tác phẩm viết bắt chước một phong cách cụ thể hoặc phản hồi theo một cách cụ thể. Những tác phẩm này có thể tương tự hoặc thậm chí giống hệt với các tác phẩm hiện có được bảo vệ bản quyền. Ví dụ, vào cuối năm 2023, tờ New York Times đã đệ đơn kiện Open AI, cho rằng các công ty AI đang vi phạm quyền sở hữu trí tuệ bằng cách sử dụng nội dung khổng lồ của nó mà không được phép. Ngoài ra, có nhiều ý kiến khác nhau về mức độ tác phẩm do AI tạo ra cần được bảo vệ bản quyền. Để giải quyết tranh cãi này, chính phủ của chúng tôi đã công bố “Nguyên tắc bản quyền AI” vào tháng 12 năm 2023 và tuyên bố rằng về nguyên tắc, các tác phẩm sáng tạo AI không thể được coi là tác phẩm có bản quyền và không thể đăng ký bản quyền. Tuy nhiên, những hướng dẫn này không quy định các quy định về bản quyền đối với các sáng tạo AI và chưa có nơi nào ở nước ngoài ban hành các quy định về bản quyền đối với các sáng tạo AI. Xã hội vẫn chưa có sự đồng thuận về mức độ sáng tạo của con người để công nhận bản quyền của một sản phẩm AI.

Các trường hợp vi phạm quyền riêng tư do AI cũng tăng nhanh. Các công ty toàn cầu như Apple, Google và Microsoft đã thu thập giọng nói của người dùng với lý do đào tạo AI và đặc biệt Apple đã gây tranh cãi khi có thông tin tiết lộ rằng họ đã thu thập thông tin cá nhân nhạy cảm như thông tin y tế và tín dụng cá nhân để đào tạo Siri.

Để ứng phó với các rủi ro khác nhau do AI gây ra, các nước lớn đang có phong trào xác định AI có nguy cơ cao và quy định các tiêu chí phân loại theo luật. “Đạo luật AI của EU (Đạo luật trí tuệ nhân tạo”, sau đây gọi là “Đạo luật AI của EU”), sẽ được mô tả sau, chia rủi ro AI thành bốn cấp độ: △ rủi ro tối thiểu hoặc không có rủi ro, △ rủi ro hạn chế, △ rủi ro cao và △ rủi ro không thể chấp nhận được và phân biệt rủi ro AI theo mức độ rủi ro. Các quy định sẽ được áp dụng. Dự luật này xác định các hệ thống có thể ảnh hưởng đến khả năng tiếp cận giáo dục, việc làm và dịch vụ tài chính, chẳng hạn như cơ sở hạ tầng quan trọng, phỏng vấn AI và sàng lọc khoản vay AI, là AI 'rủi ro cao' và AI nhằm mục đích phân biệt đối xử xã hội hoặc thao túng hành vi của con người là 'không thể chấp nhận được'. 'Được xác định là AI.

Ngoài ra, Đạo luật trách nhiệm giải trình thuật toán của Hoa Kỳ (sau đây gọi là 'Đạo luật trách nhiệm giải trình thuật toán') bao gồm đánh giá và chứng nhận, giáo dục và đào tạo nghề, quản lý người lao động, các dịch vụ tài chính như thế chấp và tín dụng, và các dịch vụ pháp lý, điện, nước, v.v. AI tham gia vào các quyết định quan trọng có thể tác động đáng kể đến con người, chẳng hạn như AI được sử dụng trong cơ sở hạ tầng thiết yếu, đã được phân loại là “rủi ro cao”

để ngăn chặn tác động tiêu cực của AI có thể tác động đáng kể đến cuộc sống con người . Từ cuối những năm 2010 đến nay, 1) các cơ quan đa phương, 2) các tổ chức quốc tế và 3) chính phủ mỗi nước đang có nhiều nỗ lực, bao gồm việc chuẩn bị các tuyên bố, khuyến nghị và xây dựng pháp luật.

Xu hướng toàn cầu về quản lý rủi ro AI

[Hình 1] Các luật và chính sách ứng phó rủi ro AI lớn trên toàn cầu.
2019
  • OECD「OECD AI Principles」 Adopted.
  • UNESCO「Recommendation on the Ethics of AI」 Released.
  • EU「Ethics Guidelines for Trustworthy AI」 Released.
2020
  • EU「White Paper on AI」 Released.
2021
  • EU「Draft EU AI Act」 Proposed.
2022
  • United States「Blueprint for an AI Bill of Rights」 Issued.
2023
  • Inited Kingdom AI Safety Summit 2023 Held.
  • United States「AI Disclosure Act」 Intrdoduced
2024
  • EU「EU AI Act」Entered to force.
  • Korea and UK AI Seoul Summit 2024 Co-hosted.

Hội nghị đa phương - Hội nghị thượng đỉnh AI

Là một phần trong nỗ lực của cộng đồng quốc tế nhằm ứng phó với các rủi ro về AI, Hội nghị thượng đỉnh AI đầu tiên đã được tổ chức. Hội nghị Thượng đỉnh An toàn AI được tổ chức tại Bletchley Park, Anh trong hai ngày từ ngày 1 đến ngày 2 tháng 11 năm 2023. Tại Hội nghị thượng đỉnh AI được tổ chức nhằm nhấn mạnh sự cần thiết phải hợp tác quốc tế nhằm giảm thiểu những rủi ro mà AI có thể gây ra cho nhân loại, 28 quốc gia, bao gồm Hàn Quốc, Hoa Kỳ và Trung Quốc, đã nhất trí và công bố tuyên bố chung về an toàn AI .

Các thỏa thuận chính là: △ Thiết kế, phát triển và triển khai AI theo cách lấy con người làm trung tâm, đáng tin cậy và có trách nhiệm; △ Phát triển AI mà bất kỳ ai cũng có thể hưởng lợi trong các lĩnh vực như giáo dục/công cộng/an ninh và △ Hiểu rõ tất cả những người sử dụng AI. bao gồm việc áp đặt trách nhiệm đảm bảo an toàn AI cho các bên liên quan, đặc biệt là các nhà phát triển và khám phá giải pháp cho các vấn đề về AI dựa trên việc tăng cường hợp tác quốc tế.

Điều quan trọng là lần đầu tiên lãnh đạo các nước lớn tập hợp để thảo luận về AI an toàn, bền vững và đưa ra tuyên bố chung, trong đó đáng chú ý là nó nhấn mạnh tầm quan trọng của trách nhiệm của các nhà phát triển và hợp tác quốc tế. Tuy nhiên, vì đây là cuộc họp đầu tiên nên có hạn chế là chỉ giới hạn ở việc công bố tuyên bố chung hơn là trình bày các kế hoạch thực hiện cụ thể. Tuy nhiên, Hội nghị thượng đỉnh AI do Hàn Quốc và Anh đồng đăng cai dự kiến sẽ được tổ chức lại vào tháng 5 năm nay để chuẩn bị các kế hoạch thực hiện cụ thể nhằm thực hiện tuyên bố của hội nghị thượng đỉnh và đánh giá giữa kỳ các biện pháp tiếp theo sau hội nghị thượng đỉnh.

Khuyến nghị AI của OECD

Vào tháng 5 năm 2019, OECD đã thông qua 'Khuyến nghị AI của OECD (Khuyến nghị của Hội đồng về AI)' để triển khai AI bền vững và đáng tin cậy. Cụ thể, khuyến nghị này bao gồm các nguyên tắc của AI mang tính đổi mới, đáng tin cậy và tôn trọng nhân quyền cũng như các giá trị dân chủ. Để thực hiện điều này, △ Thứ nhất, nỗ lực triển khai AI nhằm thúc đẩy sự hòa nhập, thúc đẩy phúc lợi và giảm bất bình đẳng xã hội; △ Thứ hai, tôn trọng các giá trị lấy con người làm trung tâm như tự do, quyền riêng tư, bình đẳng và đa dạng trong toàn bộ AI. △ Thứ ba, hệ thống AI. △ Thứ tư, khắc phục các rủi ro một cách có hệ thống như quyền riêng tư và bảo mật kỹ thuật số trong toàn bộ vòng đời, △ Thứ năm, nỗ lực đảm bảo rằng các hệ thống AI được kích hoạt phù hợp trong khi vẫn duy trì tính cập nhật. Nó nhấn mạnh trách nhiệm của các nhà phát triển AI. Khuyến nghị này là một dạng khuyến nghị có tác dụng mạnh hơn một tuyên bố và có ý nghĩa quan trọng ở chỗ đây là khuyến nghị đầu tiên nhấn mạnh tính toàn diện, công bằng, đa dạng và minh bạch của AI và là tiêu chuẩn AI đầu tiên được thiết lập trong cộng đồng quốc tế. .

Khuyến nghị của UNESCO về Đạo đức AI

UNESCO đã chuẩn bị “Khuyến nghị về Đạo đức của Trí tuệ nhân tạo” tại Đại hội đồng UNESCO vào tháng 11 năm 2019. Khuyến nghị này bao gồm 4 giá trị, 10 nguyên tắc và 11 khuyến nghị chính sách mà AI nên theo đuổi. Đầu tiên, bốn giá trị chính mà AI nên theo đuổi là △ nhân quyền, tự do và tôn trọng con người, △ sự thịnh vượng của môi trường và hệ sinh thái, △ đảm bảo sự đa dạng và hòa nhập, và △ cuộc sống hòa bình, công bằng và kết nối với nhau, và 10 nguyên tắc là để đánh giá tác động của AI. Nó bao gồm việc thực thi, cấm sử dụng hệ thống AI cho mục đích giám sát công cộng và thiết kế quản trị có sự tham gia và hợp tác. Khuyến nghị này có ý nghĩa quan trọng vì đây là thỏa thuận toàn cầu đầu tiên liên quan đến AI được công bố với chữ ký của 193 quốc gia thành viên UNESCO. Tuy nhiên, giống như khuyến nghị của OECD, khuyến nghị của tổ chức quốc tế này không có tính ràng buộc về bản chất, có nhiều điểm trùng lặp với thông báo của OECD. và tương tự như khuyến nghị của UNESCO tại Hoa Kỳ. Có một hạn chế trong khuyến nghị là Hoa Kỳ bị loại do rút lui.

Dự luật AI của EU

Khuyến nghị về từ các tổ chức quốc tế (OECD, UNESCO) đã thiết lập các nguyên tắc thực hiện tính minh bạch và công bằng trong các hệ thống trí tuệ nhân tạo và đóng vai trò là kim chỉ nam để ngăn chặn sự phân biệt đối xử trong trí tuệ nhân tạo, nhưng chúng chỉ có tác dụng tư vấn. Do đó, với sự phát triển nhanh chóng của AI, nhu cầu ban hành luật để quy định cụ thể các vấn đề liên quan nhằm ngăn chặn những tác động tiêu cực như thiên vị, phân biệt đối xử, xâm phạm quyền riêng tư và sử dụng AI an toàn hơn là rất cần thiết.

EU đã liên tiếp công bố “Hướng dẫn đạo đức cho AI đáng tin cậy” vào năm 2019 và “Sách trắng về AI” vào năm 2020, cũng như “Đạo luật AI của EU” vào tháng 4 năm 2021 để thiết lập các quy chuẩn thống nhất ở châu Âu về trí tuệ nhân tạo. Một dự thảo đã được chuẩn bị. Sau đó, các công nghệ mới như GPT và AI tổng quát xuất hiện, các vấn đề mới nảy sinh và dự thảo cuối cùng đã được sửa đổi, vào tháng 10 năm 2023, 27 quốc gia thành viên EU đã nhất trí về “Đạo luật AI của EU”, một dự luật điều chỉnh công nghệ AI. và đến năm 2024 Vào tháng 3 năm 2018, Nghị viện EU đã thông qua dự luật tại phiên họp toàn thể. Mặc dù vẫn còn sự chấp thuận từ mỗi quốc gia nhưng nó gần như đã vượt qua được rào cản lớn.

Đầu tiên, dựa trên dự luật này, EU đã phân loại rủi ro AI thành bốn cấp độ (△ rủi ro tối thiểu hoặc không có rủi ro, △ rủi ro hạn chế, △ rủi ro cao, △ rủi ro không thể chấp nhận được) và quy định nghĩa vụ phải tuân thủ từng bước.

Cụ thể, đầu tiên, quy định về sự giám sát của con người đối với các hệ thống AI có rủi ro cao. Nguyên tắc là thiết kế và phát triển các hệ thống AI có rủi ro cao theo cách mà con người có thể giám sát trong quá trình sản xuất.

Thứ hai, nó quy định các nghĩa vụ mà người vận hành hệ thống AI có rủi ro cao phải tuân thủ. Ví dụ: những người vận hành hệ thống AI có rủi ro cao phải trải qua đánh giá sự phù hợp trước khi ra mắt sản phẩm hoặc dịch vụ. Nội dung đánh giá mức độ phù hợp bao gồm phân tích rủi ro tiềm ẩn của các hệ thống AI có rủi ro cao, đánh giá tác động có thể có đối với các quyền và sự an toàn cơ bản, liệu các biện pháp có được thực hiện để giảm thiểu sai lệch hay không và tính đầy đủ của dữ liệu.

Thứ ba, nghĩa vụ đối với người dùng hệ thống AI có rủi ro cao đã được xác định. Ở đây, người dùng đề cập đến một công ty, tổ chức công cộng, tổ chức hoặc tổ chức khác sử dụng hệ thống AI dựa trên thẩm quyền của chính họ và những người dùng thực hiện các hoạt động riêng tư không chuyên nghiệp sẽ bị loại trừ. Người dùng hệ thống AI có rủi ro cao có nghĩa vụ lưu ý đến khả năng AI có thể vi phạm các quyền cơ bản và đảm bảo rằng dữ liệu trong hệ thống AI phù hợp với mục đích ban đầu của nó. Ngoài ra, nếu hệ thống AI có thể xâm phạm sức khỏe, sự an toàn hoặc các quyền cơ bản của con người, người dùng phải ngừng sử dụng nó và thông báo cho nhà điều hành hoặc nhà phân phối kinh doanh AI về thông tin đó. Ngoài ra, người dùng phải lưu giữ hồ sơ hoạt động của các hệ thống AI có rủi ro cao trong một khoảng thời gian nhất định để sử dụng chúng nhằm chẩn đoán sau đó nguyên nhân vi phạm các quyền cơ bản của hệ thống AI.

Dự luật này có ý nghĩa ở chỗ nó bao gồm các quy định chi tiết về công nghệ AI và đáng chú ý là nó quy định cụ thể các nghĩa vụ không chỉ đối với các nhà phát triển AI mà còn đối với người dùng. Nó dường như đã được luật hóa để phản ánh các cuộc thảo luận trong cộng đồng quốc tế, bao gồm OECD và UNESCO, và dự kiến sẽ đóng vai trò là tài liệu tham khảo cho các luật liên quan đến AI ở mỗi quốc gia trong tương lai.

Đạo luật trách nhiệm về thuật toán của Hoa Kỳ, Sắc lệnh điều hành về AI

Trên thực tế, chính sách AI của Hoa Kỳ tập trung vào hỗ trợ phát triển AI cấp quốc gia để phát triển và đổi mới ngành, đồng thời đã tiếp cận quy định về AI theo cách linh hoạt hơn so với EU. Tuy nhiên, do các vấn đề liên quan đến AI tiếp tục xuất hiện, “Đạo luật trách nhiệm pháp lý về thuật toán” đã được đề xuất lần đầu tiên vào tháng 4 năm 2019 và đã ra lệnh rằng việc đánh giá tác động của hệ thống ra quyết định và đánh giá tác động thông tin cá nhân chỉ được tiến hành trước đối với những người có mức độ tác động cao. -các nhóm rủi ro trong số các hệ thống ra quyết định tự động* đã làm. Khi các vấn đề về vi phạm thông tin cá nhân và sai lệch/sai sót tiếp tục gia tăng, các cơ quan chức năng đã áp đặt nghĩa vụ đối với các công ty là phải đánh giá trước những rủi ro này. *Bất kỳ hệ thống, phần mềm hoặc quy trình nào sử dụng điện toán, kết quả của chúng là cơ sở cho các quyết định hoặc phán đoán. Bao gồm những thứ bắt nguồn từ máy học, thống kê hoặc xử lý dữ liệu khác hoặc kỹ thuật trí tuệ nhân tạo, nhưng không bao gồm cơ sở hạ tầng điện toán thụ động.

Tuy nhiên, Đạo luật Trách nhiệm về Thuật toán, được Thượng viện và Hạ viện đồng thời sửa đổi và đề xuất vào năm 2022, đã mở rộng đáng kể nội dung của nó khi các lĩnh vực sử dụng hệ thống ra quyết định tự động ngày càng tăng. Trước hết, có vẻ như cần tiến hành đánh giá tác động cho cả hệ thống ra quyết định tự động và các quy trình ra quyết định quan trọng nâng cao**. Các quyết định quan trọng đề cập đến các quyết định có tác động đáng kể đến cuộc sống của người tiêu dùng, như giáo dục, cơ sở hạ tầng, chăm sóc y tế và tài chính. Nội dung đánh giá tác động bao gồm hiệu quả hoạt động trong quá khứ/hiện tại, các biện pháp giảm thiểu tác động tiêu cực đến người tiêu dùng và các biện pháp tăng cường bảo vệ thông tin cá nhân. **Một quy trình, thủ tục hoặc hoạt động khác sử dụng hệ thống ra quyết định tự động để đưa ra những quyết định quan trọng.

Một điểm đáng chú ý nữa là theo dự luật này, nếu hệ thống AI gây ra sự phân biệt đối xử vô lý hoặc không tuân thủ đánh giá tác động đối với hành vi xâm phạm thông tin cá nhân... thì có thể bị cơ quan có thẩm quyền thực thi pháp luật. Ví dụ: nếu một công dân bị hệ thống AI đe dọa hoặc đối xử bất lợi, tổng chưởng lý tiểu bang có thể thay mặt nạn nhân đệ đơn kiện để tìm kiếm sự trợ giúp pháp lý.

Dự luật nhấn mạnh tính minh bạch và trách nhiệm giải trình của các thuật toán, đặc biệt, áp đặt nghĩa vụ đối với các công ty phải tiến hành đánh giá tác động trước và cho phép nhà nước nộp đơn kiện thay mặt cho các bên chịu tổn thất bất ngờ từ AI.

Ngoài ra, Hoa Kỳ đã công bố “Sắc lệnh hành pháp về phát triển và sử dụng trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy” vào ngày 23 tháng 10. Để ngăn chặn việc lạm dụng công nghệ AI, các nhà khai thác AI đã áp dụng các nghĩa vụ mạnh mẽ hơn so với luật trách nhiệm pháp lý về thuật toán trước đây. Cụ thể, các công ty đã phát triển AI chứa các quy trình ra quyết định quan trọng phải vượt qua bài kiểm tra 'Đội Đỏ (kẻ thù giả)', một nhóm chuyên gia xác minh do chính phủ thành lập và tiếp tục báo cáo tác động của người tiêu dùng ngay cả sau khi dịch vụ được cung cấp ở đó. có nghĩa vụ phải đánh giá điều này. Ngoài ra, Viện Tiêu chuẩn và Công nghệ Quốc gia sẽ phát triển các tiêu chuẩn và công nghệ để đảm bảo tính bảo mật và tin cậy của AI, đồng thời xóa tan tranh cãi về bản quyền và thêm hình mờ để nhận dạng các sản phẩm AI nhằm ngăn chặn sự lan truyền thông tin sai lệch. được gắn bó.

Bảng 2) Nội dung các chính sách/luật pháp lớn trên toàn cầu.

글로벌 주요 정책/법제 내용 정보를 보여주는 테이블
hội nghị đa phương Hội nghị thượng đỉnh AI
(Tháng 11 năm 2023)
  • Thông báo về [Tuyên bố chung về An toàn AI] được 28 quốc gia: Hàn Quốc, Hoa Kỳ và Trung Quốc nhất trí.
  • Các lĩnh vực thiết kế, phát triển, phân phối và giáo dục/công cộng/an ninh an toàn nhấn mạnh đến AI mà bất kỳ ai cũng có thể hưởng lợi.
  • Kêu gọi nỗ lực nhiều mặt từ cộng đồng quốc tế để xác định rủi ro AI và giải quyết vấn đề.
  • Đảm bảo trách nhiệm giải trình về việc đảm bảo an toàn AI giữa tất cả các bên liên quan sử dụng AI.
  • Nhấn mạnh vào việc giải quyết các vấn đề dựa trên hợp tác quốc tế, chẳng hạn như hợp tác nghiên cứu về an toàn AI.
  • Vào tháng 5 năm nay, một hội nghị thượng đỉnh về AI do Hàn Quốc và Anh đồng tổ chức dự kiến sẽ được tổ chức để chuẩn bị các biện pháp thực hiện tuyên bố chung.
tổ chức quốc tế Khuyến nghị về đạo đức AI của UNESCO
(Tháng 11 năm 2019)
  • Các chuẩn mực về AI lần đầu tiên được thiết lập trong cộng đồng quốc tế.
  • Nhấn mạnh sự tôn trọng các giá trị lấy con người làm trung tâm như tính toàn diện, công bằng và đa dạng, nỗ lực của các nhà phát triển AI nhằm đảm bảo tính minh bạch/cập nhật và khắc phục rủi ro một cách có hệ thống.
Khuyến nghị về đạo đức AI của UNESCO
(Tháng 11 năm 2019)
  • Công bố 4 giá trị, 10 nguyên tắc và 11 khuyến nghị chính sách AI nên theo đuổi.
  • Nhân quyền, tự do và tôn trọng nhân loại, sự thịnh vượng về môi trường và hệ sinh thái, sự đa dạng và toàn diện, cuộc sống hòa bình, công bằng và liên kết được thể hiện dưới dạng bốn giá trị chính.
Hóa đơn quốc gia lớn Dự luật AI của EU được thông qua
(Tháng 3 năm 2024)
  • Đây là dự luật quy định về công nghệ AI, phân loại rủi ro AI thành 4 cấp độ (tối thiểu - hạn chế - rủi ro cao - rủi ro không thể chấp nhận được).
  • Nhấn mạnh vào sự giám sát của con người đối với AI có rủi ro cao, các quy định bắt buộc đối với người vận hành và người dùng hệ thống AI có rủi ro cao, v.v.
Đề xuất Đạo luật trách nhiệm pháp lý về thuật toán của Hoa Kỳ
(Tháng 10 năm 2022)
  • Khi đưa ra quyết định thông qua AI, bắt buộc phải tiến hành đánh giá tác động hệ thống người tiêu dùng và đánh giá tác động thông tin cá nhân và khi thiệt hại xảy ra do hệ thống AI, cơ quan chức. năng có thể thay mặt nạn nhân khởi kiện.
Lệnh điều hành AI của Hoa Kỳ
(Tháng 10 năm 2023)
  • Các nhà phát triển AI bắt buộc phải vượt qua bài kiểm tra bởi một nhóm chuyên gia xác minh an toàn AI (đội đỏ (kẻ thù giả)) trước khi tung ra sản phẩm/dịch vụ.
  • Yêu cầu Viện Tiêu chuẩn và Công nghệ Quốc gia xây dựng tiêu chuẩn/công nghệ đảm bảo an ninh/an toàn AI.

Cùng với những xu hướng toàn cầu này, các phong trào quản lý liên quan đến AI gần đây cũng đã xuất hiện ở Hàn Quốc. Đầu tiên, “Hướng dẫn bản quyền AI” nêu trên của Bộ Văn hóa, Thể thao và Du lịch quy định phạm vi công nhận bản quyền đối với các sáng tạo AI. Ngoài ra, sự quan tâm đến “Đạo luật cơ bản về AI” do Bộ Khoa học và CNTT đề xuất, vốn đã được chờ đợi tại phiên họp toàn thể của ủy ban thường vụ trong hơn một năm, đã tăng lên. Dự luật này gặp khó khăn khi được trình bày tại phiên họp toàn thể vì tập trung vào phát triển công nghệ AI và tuân thủ nguyên tắc “cho phép trước, quy định sau”. Tuy nhiên, khi các xu hướng quốc tế và các tác dụng phụ liên quan đến AI được nhấn mạnh, chẳng hạn như việc thông qua Đạo luật AI của EU và công bố lệnh điều hành AI của Hoa Kỳ, cũng như khi tiếng nói ngày càng tăng thì cần có sự hỗ trợ về mặt pháp lý và thể chế để tăng cường năng lực quốc gia. khả năng cạnh tranh của công nghệ AI và nhận ra AI có trách nhiệm, quan điểm của chính phủ cũng được thông báo rằng họ sẽ nỗ lực thông qua dự luật. Ngoài ra, Ủy ban Truyền thông Hàn Quốc đã công bố trong thông báo kế hoạch làm việc vào tháng 3 năm 2024 rằng họ sẽ theo đuổi việc ban hành Đạo luật bảo vệ người dùng dịch vụ trí tuệ nhân tạo, đồng thời công bố kế hoạch giới thiệu hệ thống ghi nhãn sản phẩm AI và thiết lập một cửa sổ báo cáo chuyên dụng. để giảm bớt thiệt hại liên quan đến AI. Tương tự như vậy, các quy định nhằm ngăn chặn tác dụng phụ của AI đang được triển khai tuần tự tại Hàn Quốc.

Ý nghĩa của xu hướng chính sách/luật pháp toàn cầu

Các dự luật và khuyến nghị liên quan đến AI từ các cơ quan đa phương, tổ chức quốc tế và các quốc gia lớn được xem xét cho đến nay đều có một số điểm chung đáng chú ý. Đầu tiên, vai trò và trách nhiệm của các nhà phát triển AI đã được tăng cường. Các nhà phát triển phải duy trì chất lượng của hệ thống AI ở mức cao nhất dựa trên công nghệ và thông tin sẵn có, đồng thời phải công bố minh bạch quá trình thu thập và xử lý dữ liệu. Thứ hai, nó nhấn mạnh việc chủ động phát hiện và ngăn chặn những rủi ro mà AI có thể gây ra. Khi AI đang phát triển nhanh chóng, cần phải chú trọng đến việc ngăn ngừa rủi ro vì hệ thống AI có thể xâm phạm các quyền cơ bản như quyền bình đẳng và quyền riêng tư. Thứ ba, vì AI về cơ bản học hỏi từ dữ liệu hiện có và tạo ra đầu ra nên việc bảo vệ bản quyền được chú trọng. Cuối cùng, vì phạm vi tác động của các vấn đề do AI gây ra là xuyên quốc gia nên cần giải quyết vấn đề thông qua hợp tác quốc tế và ứng phó toàn cầu.

Vì vậy, khi phát triển và sử dụng AI, trước tiên các công ty cần cân nhắc việc bắt buộc thành lập đội đỏ để tìm trước các lỗ hổng trong quá trình phát triển AI. Việc thành lập đội đỏ cũng được quy định trong lệnh điều hành AI của Hoa Kỳ đã đề cập trước đó. Để xác minh hệ thống trước khi phát hành, các công ty cần tiến hành các cuộc tấn công giả bằng nhiều cách khác nhau, chẳng hạn như tạo lời nhắc độc hại và giá trị đầu vào cho mô hình, bên cạnh việc thử nghiệm bằng mã hiện có. Để tham khảo, được biết, Google đang mô phỏng các cuộc tấn công bằng cách thành lập Đội Đỏ AI với các chuyên gia nội bộ và đang khuyến khích nhân sự bên ngoài tham gia Đội Đỏ của AI mở. Thông qua nhiều phương thức tấn công dựa trên đội đỏ khác nhau, cần phải xác minh trước một cách cẩn thận xem hệ thống có hỗ trợ các hoạt động bất hợp pháp hay không, cung cấp thông tin và phán đoán sai lệch, tạo ra nội dung độc hại, xâm phạm thông tin cá nhân và ngăn ngừa rủi ro. Ngoài ra, đây là lúc cần ghi lại nhiệm vụ của các nhà phát triển nội bộ, chẳng hạn như tăng tính minh bạch thông qua các giải thích về hệ thống AI và cung cấp các cơ hội đào tạo liên tục để họ có thể tiếp thu công nghệ mới nhất trong môi trường cách kịp thời. Phản ứng của cộng đồng quốc tế hiện nay đối với các rủi ro về AI phải tính đến việc nhấn mạnh vào nghĩa vụ và trách nhiệm của các nhà phát triển AI. Thứ ba, chúng ta phải nỗ lực hết sức để bảo vệ bản quyền, chẳng hạn như gắn hình mờ vào đầu ra của AI tạo ra và bảo vệ bản quyền của các tác phẩm sáng tạo và tin tức được sử dụng trong học tập AI. Để đạt được mục tiêu này, cần xem xét việc thiết lập các nguyên tắc nội bộ để quản lý các hoạt động sáng tạo AI và sử dụng nội dung hiện có. Cuối cùng, chúng ta phải tiếp tục phát triển công nghệ và bổ sung các lỗ hổng thông qua nhiều loại mạng khác nhau. Nói cách khác, công nghệ ứng dụng AI phải liên tục được bổ sung và phát triển thông qua hợp tác tư nhân-học thuật, công-tư và công-tư. Ngoài ra, ngay cả sau khi ra mắt nhiều sản phẩm AI dựa trên quy trình và mạng khác nhau, khi lộ ra các lỗ hổng không mong muốn, một quy trình phải được thiết lập để chúng có thể được báo cáo ngay cho trụ sở chính và thậm chí được phân tích ngay lập tức.

Khi công nghệ AI phát triển nhanh chóng, nhiều rủi ro và cơ hội khác nhau xuất hiện đồng thời. AI có thể là một cơ hội to lớn cho các công ty và quốc gia, nhưng nếu bạn tung ra một sản phẩm hoặc dịch vụ AI hoạt động không đúng cách, bạn sẽ phải trả giá đắt. Đã đến lúc phải nỗ lực hết sức để phát triển trước một hệ thống AI an toàn, đáng tin cậy và bền vững dựa trên các quy chuẩn, luật pháp và khuyến nghị do cộng đồng quốc tế đưa ra.

Tài liệu tham khảo
[1] Bộ Khoa học và CNTT, 2023.11.7, Bộ Khoa học và CNTT, ‘Thông báo kết quả tham dự Hội nghị thượng đỉnh về ổn định trí tuệ nhân tạo’, Thông cáo báo chí.
[2] Kim Song-ok, 2021. 11, Các xu hướng và xu hướng mới nhất những thách thức trong pháp luật AI - Liên minh Châu Âu (EU) ) Tập trung so sánh với hệ thống pháp luật, 「Nghiên cứu Luật Công」.
[3] Kim Il-woo, 2024, Nghiên cứu về sự phân biệt đối xử trong các hệ thống trí tuệ nhân tạo có rủi ro cao, 「Tạp chí Luật Sogang」.
[4] Hyun-Kyung Kim, 2022, Khuyến nghị về Đạo đức AI của UNESCO Phân tích vấn đề và phương hướng cải thiện luật pháp trong nước, 「Chiến lược luật pháp toàn cầu」.
[5] Noh Seong-Ho, 2023, Rủi ro khi sử dụng trí tuệ nhân tạo (AI) ) trong ngành tài chính Phân tích nhân tố, 「Viện nghiên cứu thị trường vốn」.
[6] Digital Daily, 2024.2.14, Chính phủ một lần nữa nhấn mạnh sự cần thiết phải thông qua Đạo luật khung AI… Mắt tập trung vào phòng thủ quá mức.
[7] Digital Hôm nay, 2024.3.20, Liệu Đạo luật AI cơ bản có được thông qua vào phút cuối của Quốc hội khóa 22?.
[8] Báo kinh doanh Maeil, 2023.12.18, Bản quyền tranh và tiểu thuyết do AI tạo ra không được công nhận… Được quy định trong quy định đăng ký bản quyền.
[9] Ủy ban Truyền thông Hàn Quốc, 2024.3.21, Kế hoạch triển khai kinh doanh chính cho năm 2024.
[10] Nền kinh tế Châu Á, 2023.12.28, Nguyên tắc đầu tiên về bản quyền AI… “Chế độ đãi ngộ thỏa đáng” so với “Tụt hậu so với đối thủ”.
[11] Seong-Tak Oh, tháng 1/tháng 2 năm 2020, Khuyến nghị về trí tuệ nhân tạo của OECD, 「Tạp chí TTA」.
[12] Jeong-Hyeon Yoon, ngày 6 tháng 12 năm 2023, Ý nghĩa của Hội nghị thượng đỉnh Bletchley về an toàn trí tuệ nhân tạo và ý nghĩa 「Viện chiến lược an ninh quốc gia」.
[13] Bản tin tài chính, 2024.3.21, ‘Trưng bày sản phẩm AI 'Bắt buộc'… Thúc đẩy ban hành luật bảo vệ người dùng AI.
[14] Nhật báo Kinh tế Hàn Quốc, ngày 22 tháng 3 năm 2024, luật bảo vệ người dùng AI ra đời... Một cửa sổ báo cáo thiệt hại AI chuyên dụng cũng sẽ được thiết lập.
[15] Hong Seok-han 2023.4, Xem xét về “Đạo luật trách nhiệm pháp lý về thuật toán năm 2022” của Hoa Kỳ, 「Nghiên cứu Hiến pháp Hoa Kỳ」.
[16] EU, https://digital-strategy.ec.europa.eu/en/news
[17] Jacob Abernethy, Tháng 3 - Tháng 4 năm 2024, “Đưa giá trị con người vào AI”, 「Harvard Business Review」.
[18] OECD, Khuyến nghị của Hội đồng Trí tuệ nhân tạo.
[19] UNESCO, Khuyến nghị về đạo đức của trí tuệ nhân tạo.

▶   Nội dung này được bảo vệ bởi Đạo luật Bản quyền và thuộc sở hữu của tác giả hoặc người sáng tạo.
▶   Nghiêm cấm xử lý thứ cấp và sử dụng thương mại nội dung mà không có sự cho phép của tác giả/người sáng tạo.


Mijeong Han
Mijeong Han
ESG Planning Group, Samsung SDS