Na última década, grande parte da preocupação do público sobre a tecnologia digital centrou-se no potencial de fuga e abuso de informações pessoais. Para dissipar estas preocupações, os principais países concentraram-se no estabelecimento de medidas legais e institucionais para garantir que os utilizadores da Internet possam controlar os seus dados pessoais, como o Regulamento Geral de Proteção de Dados da UE (RGPD).
No entanto, com o advento do ChatGPT 3.5 no final de 2022, a IA tornou-se um tema quente e, à medida que a tecnologia de IA foi introduzida em várias áreas, como recrutamento e avaliação de crédito no setor privado e processamento administrativo e apoio a testes no setor público No setor, as preocupações e os interesses públicos são complexos e evoluem. Passou dos algoritmos para a forma como os dados são recolhidos e utilizados. Isto porque, ao contrário da expectativa de que a IA tome decisões racionais em tudo com base em dados objectivos, está na verdade a causar vários resultados negativos inesperados, como o reforço da discriminação social ou o fornecimento de informações falsas plausíveis.
Os efeitos colaterais causados pela IA podem ser divididos em três categorias. A primeira é a exposição a informações tendenciosas, tóxicas e errôneas. Como os dados com os quais a IA aprende são recolhidos no mundo real, pode excluir ou integrar determinados grupos, conter conteúdos nocivos, como violência, e fornecer respostas falsas. A segunda é a questão dos direitos autorais. Se o conteúdo criado citar ou copiar um trabalho existente, poderão ser levantadas questões de violação de propriedade intelectual, intencionalmente ou não, e tais casos têm sido relatados com frequência recentemente. Além disso, continuam as discussões sobre até que ponto os direitos autorais de obras criativas, como poemas e romances criados por IA, devem ser reconhecidos. Terceiro, existe um problema de proteção de informações causado pela IA, que é o risco de vazamento de informações pessoais e internas da empresa.
Tabela 1) Tipos de efeitos colaterais/controvérsias causados pela IA.
① Exposição de informações tendenciosas, tóxicas e errôneas |
|
② Questões de direitos autorais |
|
③ Proteção de informações |
|
Por exemplo, os anúncios do Facebook, que fornecem serviços de publicidade personalizados a utilizadores baseados em IA, foram controversos depois de uma investigação empírica ter revelado que foram expostos a preconceitos com base na raça e no género. Foi revelado que cerca de 85% das ofertas de emprego de caixa de supermercado foram expostas a mulheres, cerca de 75% das ofertas de emprego de motorista de táxi foram expostas a pessoas negras, enquanto os anúncios de venda de casas foram revelados a pessoas brancas e os anúncios de aluguer foram relativamente mais expostos a pessoas negras. . O setor público não é muito diferente. O Ministério do Interior britânico utilizou IA para processar aprovações de vistos, mas foi relatado um problema em que a triagem de requerentes de visto de países com uma maior população não branca foi atrasada sem motivo. No final, as autoridades anunciaram que iriam fiscalizar o funcionamento do sistema de processamento e pararam de usar IA.
Questões de direitos autorais também são constantemente levantadas. A IA aprende basicamente com os dados existentes, alguns dos quais estão sujeitos à proteção de direitos autorais. Usando esses dados, a IA é treinada para produzir trabalhos escritos que imitem um estilo específico ou respondam de uma maneira específica. Estas obras podem ser semelhantes ou mesmo idênticas a obras existentes protegidas por direitos de autor. Por exemplo, no final de 2023, o New York Times abriu um processo contra a Open AI, alegando que as empresas de IA estavam a infringir os direitos de propriedade intelectual ao utilizar o seu vasto conteúdo sem permissão. Além disso, existem opiniões divergentes sobre até que ponto as obras criadas por IA devem ser protegidas por direitos de autor. Em resposta a esta controvérsia, o nosso governo anunciou as “Diretrizes de Direitos Autorais de IA” em dezembro de 2023 e declarou que, em princípio, as criações de IA não podem ser consideradas obras protegidas por direitos autorais e não podem estar sujeitas a registro de direitos autorais. No entanto, estas directrizes não legislam regulamentações de direitos de autor para criações de IA, e nenhum lugar no estrangeiro legislou ainda regulamentações de direitos de autor para criações de IA. Ainda não houve um consenso social sobre quanta criatividade humana deve ser incluída para reconhecer os direitos de autor de um produto de IA.
Os casos de violação de privacidade devido à IA também aumentaram rapidamente. Empresas globais como Apple, Google e Microsoft coletaram as vozes dos usuários sob o pretexto de treinar IA, e a Apple, em particular, tornou-se controversa quando foi revelado que coletou informações pessoais confidenciais, como informações médicas e de crédito pessoais, para treinar Siri.
Para responder aos vários riscos colocados pela IA, há um movimento nos principais países para definir IA de alto risco e estipular critérios de classificação por lei. A “Lei de IA da UE (Lei de Inteligência Artificial”, doravante denominada “Lei de IA da UE”), que será descrita mais adiante, divide os riscos de IA em quatro níveis: △ risco mínimo ou nenhum, △ risco limitado, △ risco alto, e △ risco inaceitável e diferencia os riscos de IA por nível de risco. Os regulamentos deveriam ser aplicados. Este projeto de lei define sistemas que podem influenciar o acesso à educação, emprego e serviços financeiros, como infraestrutura crítica, entrevistas de IA e triagem de empréstimos de IA, como IA de "alto risco" e IA para fins de discriminação social ou manipulação do comportamento humano como 'inaceitável'. 'Definido como IA.
Além disso, a Lei de Responsabilidade Algorítmica dos EUA (doravante designada por «Lei de Responsabilidade Algorítmica») inclui avaliação e certificação, educação e formação profissional, gestão de trabalhadores, serviços financeiros, como hipotecas e crédito, e serviços jurídicos, electricidade, água, etc. A IA que está envolvida em decisões importantes que podem ter um impacto significativo nos seres humanos, como a IA utilizada em infraestruturas essenciais, foi classificada como de “alto risco”
Para evitar o impacto negativo da IA que pode ter um impacto significativo na vida humana . Desde o final da década de 2010 até ao presente, 1) organismos multilaterais, 2) organizações internacionais e 3) os governos de cada país estão a envidar vários esforços, incluindo a preparação de declarações, recomendações e legislação.\
Conferência Multilateral – Cimeira da IA
Como parte dos esforços da comunidade internacional para responder aos riscos da IA, foi realizada a primeira Cimeira da IA. O AI Safety Summit foi realizado em Bletchley Park, Inglaterra, durante dois dias, de 1 a 2 de novembro de 2023. Na Cimeira da IA, realizada para enfatizar a necessidade de cooperação internacional para minimizar os riscos que a IA pode representar para a humanidade, 28 países, incluindo a Coreia, os Estados Unidos e a China, concordaram e anunciaram uma declaração conjunta sobre a segurança da IA. .
Os principais acordos são: △ Conceber, desenvolver e implementar IA de uma forma centrada no ser humano, confiável e responsável; △ Desenvolver IA da qual qualquer pessoa possa beneficiar em áreas como educação/público/segurança e △ Compreender todos os que utilizam IA; incluem impor a responsabilidade de garantir a segurança da IA às partes interessadas, especialmente aos desenvolvedores, e descobrir soluções para os problemas da IA com base no fortalecimento da cooperação internacional.
É significativo que, pela primeira vez, os líderes dos principais países se tenham reunido para discutir a IA segura e sustentável e emitido uma declaração conjunta, e é digno de nota que enfatizou a importância da responsabilidade dos desenvolvedores e da cooperação internacional. No entanto, como esta foi a primeira reunião, houve uma limitação na medida em que se limitou a anunciar uma declaração conjunta em vez de apresentar planos de implementação específicos. No entanto, a Cimeira da IA, organizada conjuntamente pela Coreia e pelo Reino Unido, está programada para ser realizada novamente em Maio deste ano para preparar planos de implementação específicos para implementar a declaração da cimeira e para a revisão intercalar das medidas de acompanhamento após a cimeira.
Recomendação da OCDE sobre IA
Em maio de 2019, a OCDE adotou a «Recomendação da OCDE sobre IA (Recomendação do Conselho sobre IA)» para implementar uma IA sustentável e fiável. Especificamente, esta recomendação contém os princípios da IA que é inovadora, confiável e respeita os direitos humanos e os valores democráticos. Para implementar isso, △ Em primeiro lugar, esforços para implementar a IA para promover a inclusão, promover o bem-estar e reduzir a desigualdade social; △ Em segundo lugar, respeitar valores centrados no ser humano, como liberdade, privacidade, igualdade e diversidade em toda a IA; ciclo de vida do sistema; △ Terceiro, sistemas de IA. △ Quarto, superação sistemática de riscos como privacidade e segurança digital ao longo de todo o ciclo de vida; △ Quinto, esforços para garantir que os sistemas de IA sejam adequadamente habilitados, mantendo-se atualizados. Enfatiza as responsabilidades dos desenvolvedores de IA. Esta recomendação é uma forma de recomendação que tem um efeito mais forte do que uma declaração e é significativa porque é a primeira a enfatizar a inclusão, justiça, diversidade e transparência da IA, e é a primeira norma de IA estabelecida na comunidade internacional .
Recomendação da UNESCO sobre Ética em IA
A UNESCO preparou a “Recomendação sobre Ética em Inteligência Artificial” na Assembleia Geral da UNESCO em novembro de 2019. Esta recomendação inclui 4 valores, 10 princípios e 11 recomendações políticas que a IA deve seguir. Em primeiro lugar, os quatro principais valores que a IA deve perseguir são △ direitos humanos, liberdade e respeito pelos humanos, △ ambiente e prosperidade dos ecossistemas, △ garantia da diversidade e inclusão, e △ vida pacífica, justa e interligada, e os 10 princípios destinam-se a avaliar o impacto da IA. Inclui a aplicação, a proibição da utilização de sistemas de IA para fins de vigilância pública e a concepção de uma governação participativa e colaborativa. Esta recomendação é significativa porque é o primeiro acordo global relacionado com a IA anunciado com as assinaturas de 193 países membros da UNESCO. No entanto, tal como a recomendação da OCDE, a recomendação da organização internacional não é vinculativa por natureza, tem muitas duplicatas com o anúncio da OCDE, e é semelhante à recomendação da UNESCO nos Estados Unidos. Há uma limitação na recomendação de que os Estados Unidos sejam excluídos devido à retirada.
Legislação da UE sobre IA
As recomendações do projeto de lei da UE sobre IA de organizações internacionais (OCDE, UNESCO) estabeleceram princípios para implementar a transparência e a justiça nos sistemas de inteligência artificial e serviram de guia para prevenir a discriminação na inteligência artificial, mas tiveram apenas efeito consultivo. Portanto, com o rápido crescimento da IA, tem havido uma grande necessidade de promulgar leis para regular especificamente os problemas relacionados, a fim de evitar impactos negativos, como preconceitos, discriminação e violação dos direitos de privacidade, e de utilizar a IA de forma mais segura.
A UE anunciou sucessivamente as “Diretrizes Éticas para IA Confiável” em 2019 e o “Livro Branco sobre IA” em 2020, e a “Lei de IA da UE” em abril de 2021 para estabelecer normas uniformes na Europa em relação à inteligência artificial. Posteriormente, surgiram novas tecnologias, como a GPT e a IA generativa, surgiram novas questões e o projeto foi revisto. Finalmente, em outubro de 2023, os 27 estados membros da UE concordaram por unanimidade com a “Lei da IA da UE”, um projeto de lei para regular a tecnologia de IA. e até 2024. Em março de 2018, o Parlamento da UE aprovou o projeto de lei na sua sessão plenária. Embora a aprovação de cada país ainda permaneça, quase ultrapassou o principal obstáculo.
Em primeiro lugar, com base neste projeto de lei, a UE classificou os riscos da IA em quatro níveis (△ risco mínimo ou nenhum, △ risco limitado, △ risco elevado, △ risco inaceitável) e estipulou obrigações para cumprir cada etapa.
Especificamente, em primeiro lugar, foi estipulada a supervisão humana de sistemas de IA de alto risco. O princípio era projetar e desenvolver sistemas de IA de alto risco de forma que pudessem ser supervisionados por humanos no processo de fabricação.
Em segundo lugar, estipula as obrigações que os operadores de sistemas de IA de alto risco devem cumprir. Por exemplo, os operadores de sistemas de IA de alto risco devem ser submetidos a uma avaliação de conformidade antes do lançamento de produtos ou serviços. O conteúdo da avaliação da adequação inclui a análise dos riscos potenciais dos sistemas de IA de alto risco, a avaliação do impacto que podem ter nos direitos básicos e na segurança, se são tomadas medidas para atenuar os preconceitos e a adequação dos dados.
Em terceiro lugar, são definidas as obrigações para os utilizadores de sistemas de IA de alto risco. Aqui, o usuário se refere a uma corporação, instituição pública, instituição ou outra organização que usa o sistema de IA com base em sua própria autoridade, e os usuários que realizam atividades privadas não profissionais são excluídos. Os utilizadores de sistemas de IA de alto risco têm a obrigação de estar conscientes da possibilidade de a IA violar direitos básicos e de garantir que os dados no sistema de IA são relevantes para a sua finalidade original. Além disso, se o sistema de IA puder infringir a saúde humana, a segurança ou os direitos básicos, o usuário deve parar de usá-lo e notificar o operador comercial ou distribuidor de IA das informações. Além disso, os utilizadores devem manter registos de funcionamento de sistemas de IA de alto risco durante um determinado período de tempo, a fim de os utilizar para diagnosticar posteriormente a causa das violações de direitos básicos por parte dos sistemas de IA.
Este projeto de lei é significativo porque contém regulamentações detalhadas sobre a tecnologia de IA e é digno de nota porque especifica obrigações não apenas para os desenvolvedores de IA, mas também para os usuários. Parece ter sido legislado para refletir as discussões na comunidade internacional, incluindo a OCDE e a UNESCO, e espera-se que sirva de referência para a legislação relacionada com a IA em cada país no futuro.
Lei de Responsabilidade de Algoritmos dos EUA, Ordem Executiva sobre IA
Na verdade, a política de IA dos EUA está focada no apoio ao desenvolvimento de IA a nível nacional para o desenvolvimento e inovação da indústria, e abordou a regulamentação da IA de uma forma mais flexível do que a UE. No entanto, à medida que os problemas relacionados com a IA continuam a surgir, a “Lei de Responsabilidade do Algoritmo” foi proposta pela primeira vez em Abril de 2019, e foi ordenado que as avaliações de impacto do sistema de tomada de decisão e as avaliações de impacto de informações pessoais fossem realizadas antecipadamente apenas para altos níveis de segurança. -grupos de risco entre sistemas automatizados de tomada de decisão* sim. À medida que as questões de violação de informações pessoais e parcialidade/erro continuam a aumentar, as autoridades impuseram às empresas a obrigação de avaliar antecipadamente estes riscos.
*Qualquer sistema, software ou processo que utilize computação, cujos resultados sejam a base para decisões ou julgamentos. Incluindo aqueles derivados de aprendizado de máquina, processamento estatístico ou outro processamento de dados ou técnicas de inteligência artificial, mas excluindo infraestrutura de computação passiva.
No entanto, a Lei de Responsabilidade de Algoritmos, que foi simultaneamente revista e proposta pelo Senado e pela Câmara dos Representantes em 2022, expandiu enormemente o seu conteúdo à medida que aumentam as áreas que utilizam sistemas automatizados de tomada de decisão. Em primeiro lugar, parece que as avaliações de impacto devem ser realizadas tanto para sistemas automatizados de tomada de decisão como para processos de tomada de decisão críticos melhorados**. Decisões importantes referem-se a decisões que têm um impacto significativo na vida dos consumidores, tais como educação, infra-estruturas, cuidados médicos e finanças. O conteúdo da avaliação de impacto inclui desempenho passado/atual, medidas para mitigar impactos negativos sobre os consumidores e medidas para fortalecer a proteção de informações pessoais.
**Um processo, procedimento ou outra atividade que utiliza sistemas automatizados de tomada de decisão para tomar decisões importantes.
Outro ponto digno de nota é que, ao abrigo deste projeto de lei, se um sistema de IA causar discriminação injustificada ou não cumprir a avaliação de impacto na violação de informações pessoais, etc., a aplicação da lei pelas autoridades competentes é possível. Por exemplo, se um cidadão for ameaçado ou tratado desfavoravelmente por um sistema de IA, o procurador-geral do estado pode abrir uma ação judicial em nome da vítima para obter reparação legal.
O projeto de lei enfatizou a transparência e a responsabilidade dos algoritmos e, em particular, impôs às empresas a obrigação de realizar avaliações de impacto antecipadamente e permitiu que o estado iniciasse ações judiciais em nome das partes que sofreram perdas inesperadas com a IA.
Além disso, os Estados Unidos anunciaram a “Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Protegido e Confiável da Inteligência Artificial” em 23 de outubro. Para evitar o uso indevido da tecnologia de IA, foram impostas obrigações mais rigorosas aos operadores de IA do que as leis anteriores de responsabilidade por algoritmos. Especificamente, as empresas que desenvolveram IA contendo importantes processos de tomada de decisão devem passar no teste 'Red Team (falso inimigo)', uma equipe de especialistas em verificação estabelecida pelo governo, e continuar a relatar o impacto do consumidor mesmo depois que o serviço for prestado. é uma obrigação avaliar isso. Além disso, o Instituto Nacional de Padrões e Tecnologia desenvolverá padrões e tecnologias para garantir a segurança e a confiança da IA, ao mesmo tempo que dissipará a controvérsia sobre direitos autorais e adicionará uma marca d’água para identificar produtos de IA para evitar a disseminação de informações falsas. estar anexado.
Tabela 2) Conteúdo das principais políticas/legislações globais.
conferência multilateral | Cimeira de IA (23 de novembro) |
|
organização internacional | Recomendações de IA da OCDE (19 de maio) |
|
Recomendações de Ética em IA da UNESCO (novembro de 2019) |
|
|
Principais contas do país | Projeto de lei de IA da UE aprovado (24 de março) |
|
Proposta de Lei de Responsabilidade de Algoritmo dos EUA (22 de outubro) |
|
|
Ordem Executiva de IA dos EUA (23 de outubro) |
|
Em linha com estas tendências globais, movimentos regulamentares relacionados com a IA surgiram recentemente também na Coreia. Em primeiro lugar, as “Diretrizes de Direitos Autorais de IA” acima mencionadas do Ministério da Cultura, Esportes e Turismo estipulam o escopo do reconhecimento de direitos autorais para criações de IA. Além disso, aumentou o interesse na “Lei Básica da IA” proposta pelo Ministério da Ciência e TIC, que está pendente na sessão plenária da comissão permanente há mais de um ano. Este projeto de lei teve dificuldade em ser apresentado à sessão plenária, uma vez que se centrava no desenvolvimento da tecnologia de IA e aderiu ao princípio de “permissão primeiro e regulamentação depois”. No entanto, à medida que as tendências internacionais e os efeitos secundários relacionados com a IA são destacados, tais como a aprovação da Lei da IA da UE e o anúncio da ordem executiva da IA dos EUA, e à medida que crescem as vozes de que o apoio jurídico e institucional é urgentemente necessário para aumentar a capacidade nacional competitividade da tecnologia de IA e realizar uma IA responsável, o princípio foi excluído. A posição do governo também foi anunciada de que faria esforços para aprovar o projeto. Além disso, a Comissão de Comunicações da Coreia anunciou no seu plano de trabalho em março de 2024 que prosseguirá a promulgação da Lei sobre a Proteção dos Utilizadores de Serviços de Inteligência Artificial e anunciou planos para introduzir um sistema de rotulagem de produtos de IA e estabelecer uma janela de relatórios dedicada. para aliviar os danos relacionados à IA. Da mesma forma, regulamentos para suprimir os efeitos secundários da IA estão a ser implementados sequencialmente na Coreia.
Os projetos de lei e recomendações relacionados com a IA de organismos multilaterais, organizações internacionais e grandes países examinados até agora têm várias características notáveis em comum. Primeiro, as funções e responsabilidades dos criadores de IA foram reforçadas. Os desenvolvedores devem manter a qualidade do sistema de IA no mais alto nível com base na tecnologia e nas informações disponíveis, e devem divulgar de forma transparente o processo de coleta e processamento de dados. Em segundo lugar, enfatiza a detecção proativa e a prevenção dos riscos que a IA pode causar. Dado que a IA se desenvolve rapidamente, há uma ênfase na prevenção de riscos, uma vez que os sistemas de IA podem infringir direitos básicos como a igualdade e a privacidade. Terceiro, uma vez que a IA basicamente aprende com os dados existentes e produz resultados, a proteção dos direitos autorais é enfatizada. Por último, uma vez que o âmbito do impacto dos problemas causados pela IA é transnacional, recomenda-se resolver o problema através da cooperação internacional e da resposta global.
Portanto, ao desenvolver e utilizar a IA, as empresas devem primeiro considerar a obrigatoriedade da formação de uma equipa vermelha para encontrar antecipadamente vulnerabilidades durante o desenvolvimento da IA. A formação de uma equipe vermelha também é obrigatória na ordem executiva de IA dos EUA mencionada anteriormente. Para verificar o sistema antes do lançamento, as empresas precisam realizar ataques simulados de diversas maneiras, como criar prompts maliciosos e valores de entrada para modelos, além de testar usando código existente. Para referência, sabe-se que o Google está simulando ataques formando um AI Red Team com especialistas internos e incentivando pessoal externo a participar do Red Team da Open AI. Através de vários métodos de ataque baseados em red team, é necessário verificar cuidadosamente e com antecedência se o sistema apoia atividades ilegais, fornece informações e julgamentos tendenciosos, cria conteúdo tóxico e infringe informações pessoais e evita riscos. Além disso, é um momento em que é necessário documentar os deveres dos desenvolvedores internos, como aumentar a transparência por meio de explicações sobre o sistema de IA, e proporcionar oportunidades de treinamento contínuo para que possam adquirir a tecnologia mais recente em um maneira oportuna. A atual resposta da comunidade internacional aos riscos da IA deve ter em conta a ênfase colocada nos deveres e responsabilidades dos criadores de IA. Terceiro, devemos fazer todos os esforços para proteger os direitos de autor, tais como anexar uma marca de água aos resultados da IA generativa e proteger os direitos de autor de trabalhos criativos e notícias utilizadas na aprendizagem da IA. Para tal, é necessário considerar o estabelecimento de diretrizes internas para a gestão das criações de IA e a utilização dos conteúdos existentes. Por último, devemos continuar a desenvolver tecnologia e complementar vulnerabilidades através de vários tipos de redes. Por outras palavras, a tecnologia de aplicação de IA deve ser continuamente complementada e desenvolvida através da cooperação privado-académica, público-privada e público-privada. Além disso, mesmo após o lançamento de vários produtos de IA baseados em redes e processos, quando vulnerabilidades inesperadas são expostas, um processo deve ser estabelecido para que possam ser imediatamente reportadas à sede e até mesmo analisadas imediatamente.
À medida que a tecnologia de IA se desenvolve rapidamente, vários riscos e oportunidades surgem simultaneamente. A IA pode ser uma tremenda oportunidade para empresas e países, mas se lançar um produto ou serviço de IA que se comporte incorretamente, terá de pagar um preço elevado. É hora de envidar todos os esforços para desenvolver antecipadamente um sistema de IA seguro, confiável e sustentável, com base nas normas, leis e recomendações emitidas pela comunidade internacional.
Referências
[1] Ministério da Ciência e TIC, 2023.11.7, Ministério da Ciência e TIC, ‘Anúncio dos resultados da participação na Cúpula de Estabilidade de Inteligência Artificial’, Comunicado de imprensa.
[2] Kim Song-ok, 2021. 11, Últimas tendências e desafios na legislação de IA - União Europeia (UE) ) Com foco na comparação com o sistema jurídico, 「Estudos de Direito Público」.
[3] Kim Il-woo, 2024, Pesquisa sobre discriminação em sistemas de inteligência artificial de alto risco, 「Sogang Law Journal」.
[4] Hyun-Kyung Kim, 2022, Análise de questões de recomendação de ética em IA da UNESCO e instruções para melhoria da legislação nacional, 「Estratégia de legislação global」.
[5] Noh Seong-Ho, 2023, Riscos da utilização de inteligência artificial (IA ) na análise fatorial do setor financeiro, 「Capital Market Research Institute」.
[6] Digital Daily, 2024.2.14, o governo enfatiza novamente a necessidade de aprovar a Lei-Quadro de IA… Olhos voltados para a sobredefesa.
[7] Digital Hoje, 2024.3.20, A Lei Básica de IA será aprovada no último minuto da 22ª Assembleia Nacional?.
[8] Maeil Business Newspaper, 2023.12.18, Direitos autorais de pinturas e romances criados por IA não reconhecidos… Especificado nos regulamentos de registro de direitos autorais.
[9] Comissão de Comunicações da Coreia, 2024.3.21, Plano de implementação de negócios principais para 2024.
[10] Economia da Ásia, 2023.12.28, primeiras diretrizes de direitos autorais de IA… “Compensação adequada” versus “Atraso em relação à concorrência.”
[11] Seong-Tak Oh, janeiro/fevereiro de 2020, Recomendação de Inteligência Artificial da OCDE, 「TTA Journal」.
[12] Jeong-Hyeon Yoon, 6 de dezembro de 2023, Significado do Cúpula de Bletchley sobre Segurança e Implicações de Inteligência Artificial 「National Security Strategy Institute」.
[13] Financial News, 2024.3.21, 'Exibição de produtos de IA 'Obrigatório'… Promoção da promulgação da lei de proteção ao usuário de IA.
[14] Korea Economic Daily, 22 de março de 2024, a lei de proteção ao usuário de IA passa a existir... Também será estabelecida uma janela dedicada para relatórios de danos de IA.
[15] Hong Seok-han 2023.4, Considerações sobre a “2022 Algorithm Liability Act” dos EUA, 「American Constitutional Research」.
[16] EU, https://digital-strategy.ec.europa.eu/en/news
[17] Jacob Abernethy, março - abril de 2024, “Bring Human Values to AI”, 「Harvard Business Review」.
[18] OCDE, Recomendação do Conselho de Inteligência Artificial.
[19] UNESCO, Recomendação sobre a Ética da Inteligência Artificial.
▶ Este conteúdo é protegido pela Lei de Direitos Autorais e é de propriedade do autor ou criador.
▶ O processamento secundário e o uso comercial do conteúdo sem a permissão do autor/criador são proibidos.