Unesco lança padrão global para ética em IAs: o objetivo é criar um conjunto de normas que definam valores e princípios comuns que nortearão a construção da infraestrutura jurídica necessária para garantir o desenvolvimento de inteligências artificiais, como o banimento de sistemas de pontuação social e vigilância em massa. O padrão deverá ser adotado por todos os 193 Estados-membros. As informações são do site InfoWorld.
O padrão recomenda:
Proteção de dados por meio de ações que vão além do que empresas de tecnologia e governos estão fazendo para garantir aos indivíduos mais proteção, garantindo transparência, agência e controle sobre seus dados pessoais. Afirma que todos os indivíduos devem ser capazes de acessar ou mesmo apagar registros de seus dados pessoais. Também inclui ações para melhorar a proteção de dados e o conhecimento de um indivíduo e o direito de controlar seus próprios dados. Também aumenta a capacidade de órgãos reguladores em todo o mundo para fazer cumprir isso.
Banindo pontuação social e vigilância em massa. O padrão proíbe explicitamente o uso de sistemas de IA para pontuação social e vigilância em massa. A UNESCO vê esse tipo de tecnologia como muito invasivo, que infringe os direitos humanos e as liberdades fundamentais e que é usado de maneira ampla. A recomendação enfatiza que, ao desenvolver estruturas regulatórias, os Estados membros devem considerar que a responsabilidade final e a responsabilidade devem sempre recair sobre os humanos e que as tecnologias de IA não devem receber personalidade jurídica.
Ajudando a monitorar e avaliar. A avaliação do impacto ético visa ajudar os países e empresas a desenvolver e implantar sistemas de IA para avaliar o impacto desses sistemas nos indivíduos, na sociedade e no meio ambiente. A metodologia de avaliação de prontidão ajuda os Estados membros a avaliar se estão preparados em termos de infraestrutura jurídica e técnica. Essa ferramenta ajudará a fortalecer a capacidade institucional dos países e recomendará medidas apropriadas a serem tomadas para garantir que a ética seja implementada na prática. Os Estados membros também são incentivados a considerar a adição da função de um oficial de ética independente da IA ou algum outro mecanismo para supervisionar os esforços de auditoria e monitoramento contínuo.
Protegendo o meio ambiente. O padrão recomenda que os governos avaliem o impacto ambiental direto e indireto ao longo do ciclo de vida do sistema de IA. Isso inclui sua pegada de carbono, seu consumo de energia e o impacto ambiental da extração de matéria-prima para apoiar a fabricação de tecnologias de IA. Também visa reduzir o impacto ambiental dos sistemas de IA e infraestruturas de dados.
Fonte: https://www.infoworld.com