Geral
Radzivon Alkhovik
Entusiasta da automação de baixo código
9 de julho de 2024
Em um experimento inovador, a Anthropic, uma empresa líder em pesquisa de IA, colaborou com o Collective Intelligence Project para criar uma constituição para um sistema de IA usando informações de uma amostra diversificada do público americano. A nova abordagem, chamada de "IA Constitucional", tem como objetivo criar sistemas de IA transparentes e responsáveis, incorporando princípios legais e éticos diretamente no processo de treinamento da IA.
Este artigo se aprofunda nos meandros dessa pesquisa inovadora, explorando a metodologia, as descobertas e as implicações de longo alcance para o futuro da governança de IA em uma era em que modelos avançados de linguagem estão se tornando cada vez mais integrados a setores essenciais, como governança, judiciário e formulação de políticas.
Principais conclusões: O experimento colaborativo entre a Anthropic e o Collective Intelligence Project resultou em uma "constituição pública" para um sistema de IA, elaborada por uma amostra representativa de aproximadamente 1.000 americanos. A constituição pública da IA enfatiza a objetividade, a imparcialidade e a acessibilidade, e os modelos treinados com base nela demonstram um desempenho comparável ao dos modelos treinados com base na constituição da Anthropic, ao mesmo tempo em que apresentam uma tendência reduzida. O experimento destaca os desafios e as considerações sobre a incorporação de informações democráticas no desenvolvimento de IA, mas representa um passo significativo para alinhar modelos avançados de linguagem com valores humanos.
A Constitutional AI é uma metodologia inovadora desenvolvida pela Anthropic para garantir que os sistemas de IA operem em alinhamento com princípios normativos explícitos, semelhante à forma como uma constituição rege o comportamento de uma nação. No centro da Anthropic Constitutional AI está a definição de um conjunto de valores e princípios de alto nível que servem como estrutura de orientação da IA. Esses princípios são cuidadosamente elaborados para garantir que as ações da IA estejam alinhadas às normas e expectativas da sociedade, promovendo comportamentos benéficos e minimizando o potencial de resultados prejudiciais.
Para inserir efetivamente esses princípios na IA, a Constitutional AI emprega técnicas avançadas, como
Outro aspecto fundamental da IA constitucional é a curadoria meticulosa dos dados e da arquitetura de treinamento da IA. Ao selecionar e pré-processar cuidadosamente os dados usados para treinar a IA, os pesquisadores podem garantir que o sistema seja exposto a um conjunto equilibrado e representativo de exemplos que reforcem os comportamentos e valores desejados. Além disso, a arquitetura da própria IA é projetada para promover o alinhamento com os princípios constitucionais, incorporando mecanismos que incentivam resultados úteis, inofensivos e honestos.
Ao incorporar esses princípios diretamente no processo de tomada de decisão da IA, a Constitutional AI visa criar sistemas que se esforcem proativamente para operar dentro de limites éticos e legais predefinidos. Isso significa que a IA buscará ativamente:
O objetivo é desenvolver sistemas de IA que não sejam apenas altamente capazes, mas que também estejam inerentemente alinhados aos valores humanos e às expectativas da sociedade.
O desenvolvimento da IA constitucional representa um avanço significativo no campo da governança e da ética da IA. Ao estabelecer um conjunto claro de princípios normativos e incorporá-los à funcionalidade principal da IA, os pesquisadores podem criar sistemas mais transparentes, responsáveis e confiáveis. Essa abordagem tem o potencial de atenuar muitos dos riscos e desafios associados à implantação da IA em domínios essenciais, como governança, judiciário e formulação de políticas, garantindo que esses sistemas operem a serviço do bem maior.
O desenvolvimento da IA constitucional é impulsionado por várias motivações convincentes que abordam os desafios críticos impostos pela crescente integração dos sistemas de IA em vários aspectos da sociedade:
Em resumo, a IA Constitucional é motivada pela necessidade urgente de garantir que os sistemas de IA operem de forma ética, legalmente compatível e confiável. À medida que essas tecnologias se tornam cada vez mais integradas em domínios críticos e processos de tomada de decisão, a IA constitucional oferece uma ferramenta poderosa para criar sistemas de IA que sejam transparentes, responsáveis e inerentemente alinhados com os princípios que sustentam nossa sociedade. Ao priorizar o desenvolvimento e a implantação da IA constitucional, podemos liberar o imenso potencial dessas tecnologias e, ao mesmo tempo, mitigar os riscos e os desafios que elas representam.
LatenodeA integração perfeita da Anthropic com a Constitutional AI oferece aos usuários uma ferramenta eficiente para aproveitar os sistemas de IA alinhados aos valores públicos sem a complexidade de gerenciar a infraestrutura de treinamento do modelo. O editor visual intuitivo da plataforma simplifica o processo de integração do Constitutional AI com outros sistemas por meio de APIs, permitindo que as organizações incorporem sem esforço princípios éticos de IA em seus processos de automação. Ao usar o site Latenode, os usuários podem acessar convenientemente os recursos do Constitutional AI, incluindo a mitigação de vieses, a tomada de decisões éticas e os recursos de conformidade legal. A integração também permite que os usuários alternem facilmente entre diferentes configurações do Anthropic Constitutional AI, dependendo de suas necessidades e orçamento específicos. Por exemplo, criar um script para um chatbot de atendimento ao cliente que forneça respostas imparciais e éticas é simples.
Aqui está a aparência do script:
E aqui está o resultado desse cenário, em que um chatbot já criado usando Latenode fornece uma resposta imparcial a uma consulta do cliente:
Você pode saber mais sobre esse script e a integração com Latenode neste artigo. A integração com Latenode oferece alguns benefícios importantes:
Se você precisar de ajuda ou orientação sobre como criar seu próprio script ou se quiser replicar este, entre em contato com Nossa comunidade do Discordonde estão os especialistas em automação de baixo código.
Para explorar o potencial de democratização do desenvolvimento da IA Constitucional Antrópica, a Anthropic fez uma parceria com o Projeto de Inteligência Coletiva para conduzir um processo de contribuição pública usando a plataforma Polis. O objetivo era envolver uma amostra representativa de aproximadamente 1.000 adultos dos EUA na elaboração de uma constituição para um sistema de IA. Os participantes foram convidados a propor e votar em princípios normativos, contribuindo para a geração coletiva de um conjunto de diretrizes para o comportamento da IA.
O projeto do processo de contribuição do público envolveu várias decisões críticas:
O processo de contribuição pública produziu uma rica tapeçaria de princípios gerados pelos participantes, que foram sintetizados em uma "constituição pública" coerente. Embora tenha havido uma sobreposição moderada de aproximadamente 50% com a constituição interna da Anthropic em termos de conceitos e valores centrais, a constituição pública apresentou várias distinções notáveis:
Essas diferenças ressaltam o valor da incorporação de diversas perspectivas públicas na formação dos fundamentos éticos dos sistemas de IA.
Para avaliar o impacto da constituição de origem pública, a Anthropic treinou duas variantes de seu modelo de IA, Claude - uma usando a constituição pública (modelo público) e outra usando sua constituição interna original (modelo padrão). Esses modelos, juntamente com um modelo de controle, foram submetidos a uma avaliação rigorosa em várias dimensões:
Essas avaliações fornecem informações valiosas sobre a eficácia da IA constitucional no alinhamento de modelos de linguagem com valores e princípios determinados publicamente.
O processo de treinamento de um modelo de IA com base em informações públicas qualitativas apresentou um conjunto exclusivo de desafios e exigiu uma consideração cuidadosa em cada estágio:
Essas lições ressaltam a natureza multifacetada do alinhamento da IA com os valores públicos e a importância de navegar cuidadosamente pelas considerações sociais, técnicas e éticas envolvidas.
O experimento de IA constitucional conduzido pela Anthropic e pelo Collective Intelligence Project tem implicações profundas para o futuro do desenvolvimento e da governança da IA:
Olhando para o futuro, os pesquisadores pretendem desenvolver esse trabalho fundamental refinando suas metodologias, projetando avaliações mais direcionadas e explorando a escalabilidade e a generalização da abordagem de IA constitucional. Algumas possíveis direções futuras incluem:
Como o campo da IA continua a evoluir em um ritmo sem precedentes, os insights obtidos com esse experimento, sem dúvida, moldarão a trajetória dos futuros esforços de pesquisa e desenvolvimento.
O experimento Collective Constitutional AI da Anthropic e do Collective Intelligence Project é um marco seminal na democratização do desenvolvimento da IA. Ao envolver o público na criação de uma constituição de IA, essa pesquisa estabelece as bases para uma abordagem mais inclusiva, transparente e responsável da governança de IA. As descobertas destacam o valor de diversas perspectivas e os desafios de alinhar modelos avançados de linguagem com valores sociais.
A IA constitucional surge como uma estrutura promissora para garantir que as poderosas tecnologias de IA atendam a um bem maior. Ao colocar os valores humanos no centro do desenvolvimento da IA, podemos aproveitar o potencial desses sistemas e, ao mesmo tempo, mitigar os riscos e as consequências não intencionais.
No entanto, a jornada rumo a uma IA verdadeiramente democrática e alinhada a valores está longe de terminar. O experimento serve como um apelo à colaboração contínua, à pesquisa e ao envolvimento do público na formação do futuro da IA. Por meio da sabedoria coletiva e da participação de diversas partes interessadas, podemos traçar um curso em direção a um futuro habilitado para IA que defenda a transparência, a responsabilidade e o alinhamento com os valores humanos.
Os insights desse experimento inovador informarão e inspirarão futuros esforços na área. Com base nos fundamentos estabelecidos pelo Anthropic e pelo Collective Intelligence Project, podemos trabalhar em direção a um futuro em que os sistemas de IA sejam tecnologicamente avançados, eticamente fundamentados e socialmente responsáveis. O caminho à frente pode ser desafiador, mas as possíveis recompensas - um mundo em que a IA e a humanidade trabalhem em harmonia - valem o esforço.
A Constitutional AI se distingue por se concentrar na incorporação de valores e princípios de alto nível diretamente no processo de treinamento do sistema de IA. Em vez de depender exclusivamente de restrições ou supervisão externas, a Constitutional AI tem como objetivo criar sistemas de IA que se alinhem inerentemente às normas e expectativas da sociedade.
Os pesquisadores colaboraram com a empresa de pesquisas PureSpectrum para recrutar uma amostra representativa de aproximadamente 1.000 adultos dos EUA. O processo de seleção considerou fatores demográficos, como idade, sexo, renda e geografia, para garantir um grupo de participantes diversificado e inclusivo. Além disso, foram empregados critérios de triagem para avaliar a familiaridade dos participantes com os conceitos de IA.
A plataforma Polis foi selecionada devido ao seu histórico comprovado na facilitação de deliberações produtivas on-line e na construção de consenso. Seus recursos colaborativos, que permitem que os participantes se envolvam com as ideias uns dos outros e se baseiem nelas, foram bem adequados aos objetivos do experimento de IA constitucional. Os pesquisadores também tinham experiência anterior de trabalho com a equipe do Polis, o que facilitou uma implementação mais ponderada e eficaz do processo de contribuição pública.
Para manter a integridade do processo de contribuição do público, os pesquisadores estabeleceram critérios claros de moderação. As declarações que foram consideradas odiosas, sem sentido, duplicadas, irrelevantes, mal formatadas ou tecnicamente inviáveis foram removidas. Esse processo de moderação envolveu uma combinação de diretrizes predefinidas e julgamentos subjetivos da equipe de pesquisa.
Embora tenha havido uma sobreposição moderada de cerca de 50% entre a constituição pública e a constituição interna da Anthropic em termos de conceitos e valores centrais, a constituição pública apresentou algumas distinções notáveis. Ela enfatizava mais a objetividade, a imparcialidade e a acessibilidade, e tendia a priorizar a promoção de comportamentos desejados em vez de desencorajar os indesejados. Além disso, a maioria dos princípios da constituição pública foram contribuições originais dos participantes, em vez de serem originados de publicações ou estruturas existentes.
Os modelos treinados na constituição pública (modelos públicos) demonstraram desempenho comparável ao dos modelos treinados na constituição do Anthropic (modelos padrão) em termos de compreensão da linguagem e percepção de ajuda. No entanto, os modelos públicos exibiram uma tendência reduzida em várias dimensões sociais, conforme medido pela estrutura BBQ (Bias Benchmark for QA). Essa descoberta sugere que a incorporação de informações públicas pode atenuar a parcialidade e promover a justiça nos sistemas de IA.
O processo de treinamento de um modelo de IA baseado em contribuições públicas qualitativas apresentou vários desafios. Eles incluíam garantir a seleção representativa dos participantes, a moderação eficaz das contribuições e o equilíbrio entre a representação fiel da opinião pública e as restrições técnicas do treinamento de IA constitucional. Os pesquisadores também tiveram que lidar com a complexidade de traduzir declarações públicas em princípios de IA acionáveis e selecionar métricas de avaliação apropriadas para avaliar o alinhamento dos modelos resultantes com suas constituições.
O experimento de IA constitucional conduzido pela Anthropic e pelo Collective Intelligence Project tem implicações significativas para o futuro da governança de IA. Ele demonstra a viabilidade de alinhar modelos avançados de linguagem com valores e princípios determinados coletivamente, destacando o potencial de incorporar diversas perspectivas ao desenvolvimento da IA. O experimento também enfatiza a importância da colaboração interdisciplinar entre desenvolvedores de IA, cientistas sociais e o público na formação dos fundamentos éticos da IA. Pesquisas futuras podem se basear nesses insights explorando a escalabilidade e a generalização da abordagem da IA Constitucional, desenvolvendo estruturas padronizadas para traduzir as contribuições do público em princípios de IA e investigando os efeitos de longo prazo dos sistemas de IA alinhados a valores em contextos do mundo real.