Principal Inovação Stephen Hawking, Elon Musk e Bill Gates alertam sobre inteligência artificial

Stephen Hawking, Elon Musk e Bill Gates alertam sobre inteligência artificial

Stephen Hawking, Elon Musk e Bill Gates. (Foto: Getty Images)



Alguns dos filmes de ficção científica mais populares - 2001: A Space Odyssey, The Terminator, The Matrix, Transcendence, Ex Machina , e muitos outros - foram baseados na noção de que a inteligência artificial irá evoluir a um ponto em que a humanidade não será capaz de controlar suas próprias criações, levando à morte de toda a nossa civilização. Esse medo do rápido crescimento da tecnologia e nossa crescente dependência dela são certamente justificados, dadas as capacidades das máquinas atuais construídas para fins militares.

A tecnologia já teve um impacto significativo na guerra desde o início da guerra do Iraque em 2001. Drones não tripulados fornecem vigilância sustentada e ataques rápidos a alvos, e pequenos robôs são usados ​​para desarmar dispositivos explosivos improvisados. O militar é atualmente financiamento pesquisa para produzir mais robôs autônomos e autoconscientes para diminuir a necessidade de soldados humanos arriscarem suas vidas. O fundador da Boston Dynamics, Marc Raiber, divulgou um vídeo mostrando um aterrorizante 1,80 m de altura e 320 libras. robô humanóide chamado Atlas, correndo livremente na floresta. A empresa, que era comprado pelo Google em 2013 e recebe verba do Ministério da Defesa, trabalha no desenvolvimento de uma versão ainda mais ágil.

[protected-iframe id = f3ad9cb5d88743d09a7e6c45b1a9b09b-35584880-78363900 ″ info = https: //www.youtube.com/embed/NwrjAa1SgjQ width = 560 ″ height = 315 ″ frameborder = 0 ″ allowfullscreen =]

Os perigos inerentes a essa tecnologia poderosa inspiraram vários líderes na comunidade científica a expressar suas preocupações sobre a Inteligência Artificial.

O sucesso na criação de IA seria o maior evento da história da humanidade, escreveu Stephen Hawking em um artigo de opinião, que apareceu dentro O Independente em 2014. Infelizmente, também pode ser o último, a menos que aprendamos a evitar os riscos. No curto prazo, as forças armadas mundiais estão considerando sistemas de armas autônomas que podem escolher e eliminar alvos. Professor Hawking acrescentou em 2014 entrevista com a BBC , os humanos, limitados pela evolução biológica lenta, não poderiam competir e seriam substituídos pelo I.A.

A tecnologia descrita pelo Sr. Hawking já começou em várias formas, variando de cientistas norte-americanos usando computadores para inserir algoritmos prever as estratégias militares de extremistas islâmicos para empresas como a Boston Dynamics, que construíram robôs móveis com sucesso , melhorando continuamente cada protótipo que eles criam.

O Sr. Hawking recentemente se juntou a Elon Musk, Steve Wozniak e centenas de outros na publicação de uma carta revelada na Conferência Conjunta Internacional no mês passado em Buenos Aires, Argentina. A carta adverte que a inteligência artificial pode ser potencialmente mais perigosa do que as armas nucleares.

O dilema ético de atribuir responsabilidades morais aos robôs exige segurança rigorosa e medidas preventivas à prova de falhas, ou as ameaças são muito significativas para serem arriscadas.

Elon Musk chamou a perspectiva de inteligência artificial de nossa maior ameaça existencial em 2014 entrevista com alunos do MIT no Simpósio do Centenário AeroAstro. Estou cada vez mais inclinado a pensar que deveria haver alguma supervisão regulatória, talvez em nível nacional e internacional, apenas para garantir que não façamos algo muito tolo. O Sr. Musk cita sua decisão de investir na empresa de Inteligência Artificial, DeepMind, como um meios para ficar de olho no que está acontecendo com a inteligência artificial. Acho que há um resultado potencialmente perigoso nisso.

O cofundador da Microsoft, Bill Gates, também expressou preocupação com a Inteligência Artificial. Durante uma sessão de perguntas e respostas no Reddit em janeiro de 2015, disse Gates, estou no campo que se preocupa com a superinteligência. Primeiro, as máquinas farão muitos trabalhos para nós e não serão superinteligentes. Isso deve ser positivo se administrarmos bem. Algumas décadas depois, embora a inteligência seja forte o suficiente para ser uma preocupação. Eu concordo com Elon Musk e alguns outros sobre isso e não entendo por que algumas pessoas não estão preocupadas.

As ameaças enumeradas por Hawking, Musk e Gates são reais e merecem nossa atenção imediata, apesar dos imensos benefícios que a inteligência artificial pode potencialmente trazer para a humanidade. À medida que a tecnologia de robôs aumenta constantemente em direção aos avanços necessários para facilitar a implementação generalizada, está ficando claro que os robôs estarão em situações que apresentam vários cursos de ação. O dilema ético de atribuir responsabilidades morais aos robôs exige segurança rigorosa e medidas preventivas à prova de falhas, ou as ameaças são muito significativas para serem arriscadas.



Artigos Interessantes