A empresa de inteligência artificial Anthropic elaborou uma lista de sugestões para a regulamentação dessa tecnologia, enviadas para a NTIA (National Telecommunications and Information Administration), órgão do governo norte-americano. Entre as ideias estão a obrigatoriedade de um pré-registro junto a órgãos governamentais do treinamento de qualquer novo grande modelo de inteligência artificial, e a definição de um limite de risco, que não poderia ser ultrapassado por nenhum novo modelo. Veja abaixo um resumo das principais sugestões da companhia:

. Financiamento público de pesquisas visando aperfeiçoar as técnicas e os padrões para a avaliação de modelos de IA

. Abertura dos métodos de avaliação usados hoje em dia pelas empresas privadas, mas sem colocar em risco suas propriedades intelectuais.

. Desenvolvimento no longo prazo de padrões de avaliação de sistemas de IA com a colaboração de órgãos de governo – a empresa sugere especificamente a participação do NIST nesse processo.

. Definição de avaliações padronizadas sobre capacidades e riscos críticos de sistemas de IA, especialmente quanto à sua autonomia e possibilidade de produção de fake news.

. Definição de um limite de risco. Se um novo modelo estiver acima desse limite, seu desenvolvimento deve ser suspenso, sua supervisão deve ser aprimorada, os reguladores devem ser notificados e novas medidas de segurança devem ser estabelecidas antes de dar continuidade ao projeto.

. Registro prévio junto a órgãos governamentais de treinamentos de novos grandes modelos de IA.

. Estabelecimento de uma “equipe vermelha” externa, ou seja, um time de técnicos independentes que possam realizar ataques adversariais para testar a segurança do novo modelo. Esta deveria ser uma pré-condição para desenvolvedores que estejam trabalhando com sistemas avançados de IA.

. Esclarecimento dos limites das leis antitrust no que tange a colaboração entre grandes empresas de IA na construção de padrões de segurança e transparência em seus modelos de IA.

. Aumento do investimento em pesquisas de modelos interpretativos de IA.