“Risco para a humanidade”, Musk e outros especialistas pedem uma pausa no desenvolvimento de IA
Inúmeros executivos do setor de tecnologia e influentes pesquisadores de inteligência artificial, incluindo Elon Musk e Yoshua Bengio, requisitaram aos laboratórios de inteligência artificial (IA) que cessem o desenvolvimento acelerado de novas e poderosas ferramentas de IA.
O pedido foi feito em carta aberta intitulada “Pause Giant AI Experiments: An Open Letter” divulgada nessa quarta-feira (29) pela organização sem fins lucrativos Future of Life Institute, em que é pedida uma pausa de seis meses no desenvolvimento dessas tecnologias.
A pausa concederia ao setor tempo para definir padrões de segurança para o design de IA e impediria possíveis danos. Os executivos afirmam que as ferramentas de IA são capazes de rivalizar com a inteligência em nível humano e acarretariam riscos para a sociedade e humanidade.
“Os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização?”, argumenta a carta.
Protocolos de segurança
A carta não pede o encerramento de todo o desenvolvimento de IA, mas sim uma pausa temporária no treinamento de sistemas mais poderosos que o GPT-4, o que inclui a próxima geração da tecnologia, o GPT-5.
Esse hiato deve ser utilizado para o desenvolvimento e a implementação de protocolos de segurança em relação ao uso da tecnologia. Essas normas devem ser auditadas e supervisionadas por especialistas independentes, conforme diz o documento. Esses protocolos servirão para certificar que os futuros mecanismos de inteligência artificial sejam “seguros além de qualquer dúvida razoável”.
Os assinantes da carta propõem ainda que as autoridades governamentais intervenham e instituam uma moratória, caso os laboratórios de IA não paralisem as atividades por conta própria.
O documento e a lista completa de assinaturas estão disponíveis no site do Future of Life Institute.
—————————————————————————————————————————————–
Conte com a Compugraf para ajudar na segurança da sua empresa!