A inteligência artificial está em quase todo lugar, desde a seleção de talentos das empresas até o monitoramento dos animais. Seu sucesso atual é a redenção em uma história de altos e baixos. Desde a década de 1940, conta a revista Fast Company, essa tecnologia teve momentos completo abandono, considerada cara e infrutífera. Confira dez altos e baixos:
1. Isaac Asimov propõe as leis da robótica (1942)
Ao propor as Três Leis da Robótica, o escritor de ficção científica Isaac Asimov estabelece princípios de convívio entre humanos e máquinas inteligentes.
2. Alan Turing propõe o jogo de imitação (1950)
A pesquisa de Turing começa com o questionamento: “’As máquinas podem pensar?”
Essa questão teórica deu origem ao “Jogo da Imitação”, um exercício para testar a capacidade de uma máquina ter conhecimento equivalente ao do humano. A pesquisa forneceu uma referência simples para identificar inteligência em uma máquina: ajudou a dar forma a uma filosofia de IA.
3. Conferência de Inteligência Artificial na Darthmouth College (1956)
Em 1955, não havia um conceito unificador para envolver vários tipos de inteligência de máquina. Até que John McCarthy, professor de matemática do Dartmouth College, cunhou o termo “inteligência artificial”.
Últimas notícias
Reforma tributária será votada na Câmara ou Senado ainda em 2019, diz Maia
Senado pode votar nesta semana projeto que reduz transparência em campanhas eleitorais
Aplicativo que permite fiscalização do eleitor aos políticos ganha apoio
McCarthy organizou uma conferência de IA no ano seguinte. Pesquisadores discutiram sobre as várias áreas com potencial para o estudo de IA, como aprendizado e pesquisa, visão, raciocínio, linguagem e cognição, jogos (principalmente xadrez) e interações humanas com máquinas inteligentes, como robôs pessoais. O consenso nas discussões foi que a IA tinha um grande potencial para beneficiar os humanos.
4. Frank Rosenblatt constrói o perceptron (1957)
A estrutura básica de uma rede neural é chamada de “perceptron”. As redes neurais de hoje, rodando em computadores poderosos, conectam bilhões dessas estruturas. Mas os perceptrons existiam muito antes dos computadores. No fim da década de 1950, um psicólogo chamado Frank Rosenblatt construiu um modelo eletromecânico chamado Mark I Perceptron, que hoje fica no museu Smithsonian.
Era uma rede neural analógica formada por uma grade de células fotoelétricas conectadas por fios a bancos de nós, contendo motores elétricos com resistores rotativos. Rosenblatt desenvolveu um “Algoritmo Perceptron” que orientava a rede a ajustar gradualmente suas forças de entrada até identificarem objetos de maneira consistente e correta, permitindo que ela aprendesse.
5. O primeiro “abandono” da Inteligência Artificial (década de 1970)
Durante grande parte da década de 1960, agências governamentais como a Agência de Projetos de Pesquisa Avançada em Defesa dos EUA (DARPA) investiram dinheiro em pesquisas.
Mas o cenário mudou no início dos anos 70. Um relatório do Comitê Consultivo para o Processamento Automático de Idiomas (ALPAC), para o governo dos EUA, em 1966 e o Relatório Lighthill, para o governo do Reino Unido, em 1973, apresentaram conclusões pessimistas sobre o potencial da inteligência artificial.
Os dois relatórios questionaram o progresso tangível de várias áreas da pesquisa. O Relatório Lighthill afirmou que seria muito difícil desenvolver a IA, para tarefas como reconhecimento de fala, em um tamanho útil ao governo ou às Forças Armadas.
Como resultado, o governo dos EUA e o governo britânico cortaram o financiamento entre os anos 70 e 80.
6. O segundo “abandono” da Inteligência Artificial (1987)
A década de 1980 começou com o desenvolvimento e o sucesso de “sistemas dedicados”, que armazenavam quantidades de conhecimento de domínio e emulavam a tomada de decisões de especialistas humanos.
A tecnologia foi originalmente desenvolvida pela universidade Carnegie Mellon para a Digital Equipment Corporation. Empresas implementaram a tecnologia rapidamente, mas os sistemas exigiam um hardware caro e especializado. O mercado de computadores dedicados encolheu quando estações de trabalho da Sun Microsystems e computadores pessoais da Apple e IBM, versáteis, atenderam a boa parte do antigo público das máquinas dedicadas.
O mercado de sistemas dedicados entrou em colapso em 1987, com os principais fornecedores de máquinas saindo do mercado. Mais uma vez, o termo “inteligência artificial” tornou-se quase um tabu na comunidade de pesquisa. Para evitar ser visto como sonhadores perdulários pedindo financiamento, os pesquisadores começaram a usar nomes diferentes para trabalhos relacionados à IA — como “informática”, “aprendizado de máquina” e “análise”. Este segundo “abandono” durou até os anos 2000.
7. Deep Blue da IBM supera Kasparov (1997)
O prestígio da inteligência artificial aumentou em 1997, quando o computador Deep Blue, da IBM, derrotou o campeão mundial de xadrez Garry Kasparov.
O Deep Blue tinha bastante poder computacional e utilizou uma abordagem de “força bruta”, avaliando 200 milhões de movimentos por segundo. Os humanos têm a capacidade de examinar apenas cerca de 50 movimentos. O efeito do Deep Blue era semelhante à IA, mas o computador não estava pensando na estratégia e no aprendizado enquanto jogava, como os sistemas posteriores. Os investidores ficaram impressionados: a vitória da Deep Blue elevou a cotação das ações da IBM.
8. A rede neural vê gatos (2011)
Em 2011, cientistas do mundo todo desenvolviam redes neurais. Naquele ano, Jeff Dean, engenheiro do Google, conheceu Andrew Ng, professor de ciência da computação de Stanford. Os dois construíram uma grande rede neural, com poder computacional impressionante, ao usar os recursos de servidor do Google, alimentado por um conjunto descomunal de dados de imagens.
Por três dias, uma rede neural com 16.000 processadores analisou 10 milhões de capturas de tela do YouTube. Em seguida, mostrou três imagens borradas, representando os padrões visuais que estavam nas imagens de teste: um rosto humano, um corpo humano e um gato. Essa pesquisa foi um grande avanço e marcou o início do projeto Google Brain.
9. Geoffrey Hinton lança redes neurais profundas (2012)
Geoffrey Hinton, professor da Universidade de Toronto, e dois alunos, criaram a AlexNet, um modelo de rede neural para competir em um concurso de reconhecimento de imagem chamado ImageNet.
+ O impacto das novas tecnologias no mercado de trabalho
Os participantes deveriam usar seus sistemas para processar milhões de imagens de teste e identificá-las com a maior precisão possível. AlexNet venceu o concurso com uma taxa de erro inferior à metade da do vice-campeão. A vitória mostrou que as redes neurais profundas, rodando em processadores gráficos, eram muito melhores do que outros sistemas.
10. Alphago derrota o campeão do Go Humano (2016)
Em 2013, pesquisadores de uma startup britânica chamada DeepMind publicaram um artigo mostrando como poderiam usar uma rede neural para jogar e vencer 50 jogos antigos de Atari. Mas os dias de glória do DeepMind estavam à frente.
Em 2016, os cientistas do DeepMind, agora no Google, trocaram o Atari pelo jogo de tabuleiro Go. Eles desenvolveram um modelo de rede neural chamado AlphaGo, para jogar e aprender com a brincadeira.
O software jogou contra outras versões do AlphaGo, aprendendo com as estratégias de ganhar e perder. Funcionou. O AlphaGo derrotou o maior jogador de Go do mundo, Lee Sedol, quatro jogos a um.
Os recentes avanços nas redes neurais profundas tiveram um impacto tão amplo que a verdadeira história da inteligência artificial pode estar apenas começando.
Fonte: “Época Negócios”