CG One

Blog CG One

Insights valiosos para ajudar a proteger o seu negócio.

“Risco para a humanidade”, Musk e outros especialistas pedem uma pausa no desenvolvimento de IA

“Risco para a humanidade”, Musk e outros especialistas pedem uma pausa no desenvolvimento de IA

Inúmeros executivos do setor de tecnologia e influentes pesquisadores de inteligência artificial, incluindo Elon Musk e Yoshua Bengio, requisitaram aos laboratórios de inteligência artificial (IA) que cessem o desenvolvimento acelerado de novas e poderosas ferramentas de IA.

O pedido foi feito em carta aberta intitulada “Pause Giant AI Experiments: An Open Letter” divulgada nessa quarta-feira (29) pela organização sem fins lucrativos Future of Life Institute, em que é pedida uma pausa de seis meses no desenvolvimento dessas tecnologias.

A pausa concederia ao setor tempo para definir padrões de segurança para o design de IA e impediria possíveis danos. Os executivos afirmam que as ferramentas de IA são capazes de rivalizar com a inteligência em nível humano e acarretariam riscos para a sociedade e humanidade.

“Os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização?”, argumenta a carta.

Protocolos de segurança

A carta não pede o encerramento de todo o desenvolvimento de IA, mas sim uma pausa temporária no treinamento de sistemas mais poderosos que o GPT-4, o que inclui a próxima geração da tecnologia, o GPT-5.

Esse hiato deve ser utilizado para o desenvolvimento e a implementação de protocolos de segurança em relação ao uso da tecnologia. Essas normas devem ser auditadas e supervisionadas por especialistas independentes, conforme diz o documento. Esses protocolos servirão para certificar que os futuros mecanismos de inteligência artificial sejam “seguros além de qualquer dúvida razoável”.

Os assinantes da carta propõem ainda que as autoridades governamentais intervenham e instituam uma moratória, caso os laboratórios de IA não paralisem as atividades por conta própria.

O documento e a lista completa de assinaturas estão disponíveis no site do Future of Life Institute.

—————————————————————————————————————————————–

Conte com a Compugraf para ajudar na segurança da sua empresa! 

FALE AGORA COM UM ESPECIALISTA

Leia outros artigos