Queremos uma pausa nos experimentos com IA!
Carta assinada contra
experimentos de IA já tem mais de 1300 signatários (cientistas, empresários de
tecnologia e representantes do meio acadêmico), inclui, além do dono da Tesla,
Steve Wozniak, Oxford, Cambridge, Stanford, Columbia, Google, Microsoft, Amazon
e até o historiador Yuval Noah Harari.
·
Os
sistemas de IA com inteligência competitiva humana podem representar riscos
profundos para a sociedade e a humanidade;
·
A
IA avançada pode representar uma mudança profunda na história da vida na Terra
e deve ser planejada e gerenciada com cuidados e recursos proporcionais;
·
Laboratórios
de IA travados em uma corrida descontrolada para desenvolver e implantar mentes
digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode
entender, prever ou controlar de forma confiável;
·
Os
sistemas contemporâneos de IA estão se tornando competitivos para humanos em
tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem
nossos canais de informação com propaganda e falsidade? Devemos automatizar
todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que
eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos
substituíssem? Devemos arriscar perder o controle de nossa civilização?
·
Tais
decisões não devem ser delegadas a líderes tecnológicos não eleitos;
·
Sistemas
poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de
que seus efeitos serão positivos e seus riscos serão administráveis;
·
"Em
algum momento, pode ser importante obter uma revisão independente antes de
começar a treinar sistemas futuros e para os esforços mais avançados concordar
em limitar a taxa de crescimento da computação usada para criar novos
modelos". Nós concordamos. Esse ponto é agora.
·
Portanto,
pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6
meses o treinamento de sistemas de IA mais poderosos que o GPT-4 . Essa pausa
deve ser pública e verificável e incluir todos os principais atores. Se tal
pausa não puder ser decretada rapidamente, os governos devem intervir e
instituir uma moratória.
·
A pesquisa e o desenvolvimento de IA
devem ser reorientados para tornar os sistemas avançados e poderosos de hoje
mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados,
confiáveis e leais.
·
Paralelamente, os desenvolvedores de IA
devem trabalhar com os formuladores de políticas para acelerar drasticamente o
desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir,
no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e
rastreamento de sistemas de IA altamente capazes e grandes conjuntos de
capacidade computacional; sistemas de proveniência e marca d'água para ajudar a
distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema
robusto de auditoria e certificação; responsabilidade por danos causados pela
IA; financiamento público robusto para pesquisa técnica de segurança de IA; e
instituições com bons recursos para lidar com as dramáticas perturbações
econômicas e políticas (especialmente para a democracia) que a IA causará.
Nenhum comentário:
Postar um comentário