Homenews - homenews.com.br
Tecnologia
Sábado - 01 de Agosto de 2009 às 12:54

    Imprimir


The New York Times
Nave militar não tripulada
Nave militar não tripulada

 


Um robô capaz de abrir portas e encontrar, sozinho, tomadas elétricas para se carregar. Vírus de computador implacáveis. Pequenas aeronaves que, apesar de ainda controladas por seres humanos, chegam perto de uma máquina com autonomia para matar. 


Impressionado e alarmado pelos avanços na área de inteligência artificial, um grupo de cientistas da computação está debatendo se deve haver limites nas pesquisas que possam levar à perda do controle humano sobre sistemas computacionais cada vez mais usados na sociedade de hoje – de guerras a conversas por telefone com clientes.

A preocupação é que avanços maiores possam criar perturbações sociais profundas, com perigosas consequências. 

Como exemplos, os cientistas apontaram uma série de tecnologias bastante diversas – de sistemas médicos experimentais que interagem com pacientes simulando empatia, até vírus de computador implacáveis que poderiam representar o estado "primitivo" da inteligência mecânica.

 Os cientistas da computação concordam que há ainda um longo caminho a percorrer até que se chegue a algo parecido com Hal, o hipercomputador que assume a espaçonave no filme "2001: Uma Odisseia no Espaço". No entanto, eles afirmam haver preocupações legítimas de que o progresso tecnológico possa transformar o mercado de trabalho, ao destruir uma ampla variedade de empregos, assim como forçar os homens a aprender a conviver com máquinas que imitam o comportamento humano.

Os pesquisadores – importantes cientistas da computação e pesquisadores sobre inteligência artificial e robótica que se reuniram em Asilomar, em Monterey Bay, Califórnia – descartaram a possibilidade de superinteligências altamente centralizadas e a ideia de que alguma inteligência possa “brotar espontaneamente” da internet. No entanto, eles concordam que robôs com autonomia para matar já existem, ou chegarão num futuro bem próximo.

 Eles dedicam atenção especial ao receio de que criminosos possam explorar sistemas de inteligência artificial assim que esses forem desenvolvidos. O que um criminoso faria com um sistema de síntese de voz capaz de imitar uma voz humana? O que acontece se uma tecnologia de inteligência artificial é usada para extrair informações pessoais de smart phones?

 Concorrência desleal

Os pesquisadores também discutiram sobre possíveis ameaças a trabalhos humanos, como carros que dirigem sozinhos, assistentes pessoais baseados em software e robôs para executar tarefas domésticas. No mês passado, um robô desenvolvido por Willow Garage, no Vale do Silício, mostrou ser capaz de navegar no mundo real.

 Relatório da conferência, realizada a portas fechadas no dia 25 de fevereiro, será lançado até o final deste ano

Um relatório da conferência, realizada a portas fechadas no dia 25 de fevereiro, será lançado até o final deste ano. Alguns participantes discutiram sobre o encontro pela primeira vez com outros cientistas este mês, em entrevistas.

A conferência foi organizada pela Associação para o Avanço da Inteligência Artificial. Ao escolher Asilomar como o local do encontro, o grupo evocou, propositadamente, um evento marcante na história da ciência. Em 1975, os principais biólogos do mundo também se reuniram em Asilomar para discutir a nova capacidade de remodelar a vida, ao intercambiar material genético entre organismos. Preocupados com ameaças biológicas e questões éticas, os cientistas tinham interrompido certos experimentos. A conferência gerou diretrizes para a pesquisa de DNA recombinante, permitindo a continuação de experimentos.

 O encontro sobre o futuro da inteligência artificial foi organizado por Eric Horvitz, pesquisador da Microsoft e hoje presidente da associação. Horvitz acredita que cientistas da computação devem responder às ideias frenéticas de máquinas superinteligentes e sistemas de inteligência artificial.

 A ideia de uma "explosão de inteligência", na qual máquinas inteligentes projetariam máquinas ainda mais inteligentes, foi proposta pelo matemático I. J. Good, em 1965. Mais tarde, em palestras e livros sobre ficção científica, o cientista da computação Vernor Vinge popularizou a ideia de um momento em que os humanos criariam máquinas mais inteligentes que os homens, causando uma mudança tão rápida que a "era humana acabaria". Ele chamou essa mudança de Singularidade.

Fim da era humana

Essa visão, adotada em filmes e na literatura, é considerada plausível e preocupante por alguns cientistas, como William Joy, co-fundador da Sun Microsystems. Outros especialistas em tecnologia, com destaque para Raymond Kurzweil, enaltecem a chegada de máquinas ultra-inteligentes, afirmando que elas trarão grandes avanços no prolongamento da vida e na geração de riquezas.

"Algo novo tem ocorrido nos últimos cinco a oito anos", diz Horvitz. "Os especialistas em tecnologia estão substituindo a religião."

 A versão de Kurzweil da utopia tecnológica tem capturado mentes no Vale do Silício. Este verão, uma organização chamada de Universidade da Singularidade começou a oferecer cursos para preparar uma equipe capaz de moldar os avanços tecnológicos e ajudar a sociedade a lidar com as consequências.

"Achei que, mais cedo ou mais tarde, teríamos de fazer algum tipo de afirmação ou avaliação, dadas as preocupações das pessoas com o surgimento das máquinas inteligentes", afirma Horvitz.

 Perda de controle

O relatório busca avaliar a possibilidade da "perda do controle humano sobre inteligências com base em computadores". O documento também abordará questões socioeconômicas, legais e éticas, assim como prováveis mudanças nas relações homem-máquina. Como seria, por exemplo, se relacionar com uma máquina tão inteligente quanto seu parceiro?

Horvitz diz que o grupo de especialistas busca formas de orientar pesquisas, para que a tecnologia melhore a sociedade, em vez de levá-la a uma catástrofe. Algumas pesquisas podem, por exemplo, ser conduzidas em laboratório de alta segurança.

 O encontro sobre inteligência artificial pode ser fundamental para o futuro desse campo científico. Paul Berg, organizador do encontro de Asilomar de 1975 e ganhador de um prêmio Nobel de química, em 1980, acredita ser importante que as comunidades científicas envolvam o grande público antes que as preocupações e a oposição se solidifiquem.

 "Se esperarmos muito, os pontos de vista se fortificam, como ocorreu com os alimentos geneticamente modificados. Depois, fica difícil. É um assunto muito complexo."

 Tom Mitchell, professor de inteligência artificial e ensino por meio de máquinas da Carnegie Mellon University, afirma que o encontro de fevereiro mudou sua forma de pensar. "Cheguei lá bastante otimista quanto ao futuro da IA. Achava que Bill Joy e Ray Kurzweil tinham ido longe demais em suas previsões", diz. Porém, acrescenta, "o encontro me fez ser mais sincero sobre esses assuntos, especialmente em relação à grande quantidade de dados coletados sobre nossa vida pessoal".

 Apesar de suas preocupações, Horvitz diz estar esperançoso de que as pesquisas sobre inteligência artificial venham a beneficiar os seres humanos, e até compensar nossas falhas. Ele demonstrou, recentemente, um sistema de voz projetado por ele. O sistema perguntava a pacientes sobre seus sintomas e respondia com empatia. Quando uma mãe dizia que seu filho estava com diarreia, o rosto na tela dizia: "Ah, que pena!"

 Um médico lhe disse, mais tarde, que era maravilhoso o fato de ter um sistema capaz de responder a emoções humanas. Segundo Horvitz, o médico disse: "É uma ideia brilhante. Eu não tenho tempo para fazer isso."

 




Fonte: The New York Times

URL Fonte: http://homenews.com.br/noticia/3967/visualizar/