Inteligência artificial: relembre o surgimento e os principais marcos da tecnologia | Tecnologia

Inteligência artificial: relembre o surgimento e os principais marcos da tecnologia | Tecnologia
Inteligência artificial: relembre o surgimento e os principais marcos da tecnologia | Tecnologia

Em constante evolução, a inteligência artificial tem cada vez mais possibilidades de aplicação e se torna mais apurada a cada dia. Mas você sabia que o conceito de IA já tem quase 70 anos? E que partidas de xadrez foram um importante instrumento para avaliar seu desempenho nas primeiras décadas de desenvolvimento?

Para te ajudar a entender a história e as etapas envolvidas no desenvolvimento dessa tecnologia, PEGN elaborou uma linha do tempo com os principais marcos da sua evolução. O conteúdo fez parte da edição de fevereiro da revista, que trouxe um guia completo com as tendências e oportunidades da inteligência artificial. A versão digital está disponível no app Globo Mais.

Veja abaixo:

– Primeiros passos: A ideia de criar máquinas capazes de imitar a inteligência humana atravessa os séculos, mas o conceito do que conhecemos hoje como IA começa a ganhar estrutura maior nos anos 1950, quando o inglês Alan Turing (1912-1954) propõe o “Teste de Turing” para determinar se uma máquina pode exibir comportamento inteligente como o de um humano.

– 1956: O conceito de IA surge em um workshop na Dartmouth College (EUA), apresentado pelos pesquisadores John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon.

– 1958: O psicólogo norte-americano Frank Rosenblatt (1928-1971) desenvolve o Perceptron, rede neural simplificada para reconhecimento de padrões, e o cientista da computação norte-americano John McCarthy (1927-2011) cria a Lisp, uma família de linguagens de programação que se tornará a principal linguagem da comunidade de IA.

– 1967: O cientista da computação estadunidense Arthur Samuel (1901-1990) cria um programa de computador capaz de jogar xadrez, avanço relevante na aplicação de técnicas de aprendizado de máquina.

– Décadas de 1970 e 1980: A expectativa por resultados rápidos é frustrada em função da complexidade de tarefas e da limitação tecnológica dos computadores, culminando em um “inverno da IA”.

– Década de 1990: O interesse é retomado em universidades e empresas por meio de experimentações com arquiteturas de redes neurais, permitindo o avanço de tarefas como o reconhecimento de voz e de caracteres manuscritos. Há avanços em aprendizado de máquina e criam-se algoritmos mais poderosos.

– 1997: O Deep Blue, supercomputador da IBM projetado para jogar xadrez, derrota o russo Garry Kasparov, então campeão mundial. O confronto impulsionou a visibilidade que a IA receberia nas décadas seguintes.

– 1998: Criada a arquitetura de redes neurais LeNet-5, crucial para o avanço da visão computacional nos anos seguintes.

– Década de 2000: Período de rápido progresso e consolidação da IA, com o avanço da mineração de dados e da análise preditiva. Empresas reconhecem o valor de extrair informações úteis a partir de grandes bases de dados para tomada de decisões.

– 2009: É criado o ImageNet, um grande banco de dados visual projetado para uso em pesquisa de software de reconhecimento visual de objetos, permitindo o treinamento mais eficiente de modelos em larga escala.

– 2011: O sistema Watson, da IBM, vence humanos no jogo de perguntas e respostas Jeopardy!, demonstrando a capacidade da IA em compreender informações que exigem contexto.

A Apple lança a Siri, um marco no surgimento de assistentes virtuais e agentes de conversação baseados em IA.

– 2012: A rede neural convolucional AlexNet ganha o Desafio ImageNet de Reconhecimento de Imagem (iniciativa apoiada por universidades e por empresas como Google e Nvidia), marcando um ponto de virada significativo e destacando o potencial das redes neurais profundas em visão computacional.

– 2016: O programa de IA AlphaGo, da DeepMind (empresa do Google), derrota Lee Sedol, sul-coreano campeão mundial de Go, e demonstra a capacidade da IA em lidar com estratégias complexas.

– Década de 2020: A IA torna-se parte integrante de muitos produtos e serviços e passa a ter aplicação generalizada em setores como saúde, finanças e automotivo. Além do desenvolvimento de modelos de linguagem avançados, cresce o debate sobre ética, riscos e interpretabilidade.

– 2020: A OpenAI lança o GPT-3, maior rede neural já construída. A inovação impulsiona outras empresas de tecnologia a desenvolverem seus modelos, e os anos seguintes vão vivenciar uma explosão na oferta de IA generativa.

– 2022: A OpenAI lança o ChatGPT, baseado na arquitetura Generative Pre-trained Transformer, resultado de uma das implementações mais avançadas da tecnologia de modelos de linguagem de grande escala.

– 2023: O ano seguinte à criação do ChatGPT vive um “boom” de anúncios. Entre as gigantes, Google cria o Bard para competir diretamente com a ferramenta da OpenAI, e Microsoft lança o Image Creator, plataforma abastecida com inteligência artificial capaz de gerar figuras a partir de uma descrição em texto.

– 2024: O ano começa com a IA no centro das novidades lançadas na CES, principal evento de tecnologia do mundo. O Google renomeia o Bard como Gemini e anuncia novas aplicações do seu modelo de linguagem de IA. O ChatGPT ganha mais uma evolução, com o lançamento do GPT-4o, e passa a ser capaz de processar voz e imagens em tempo real.

Fontes: Apple, Cornell Chronicle, Dartmouth College, Google DeepMind, IBM, ImageNet, Inteligência Artificial Report 2023/Distrito, OpenAI, Microsoft e Stanford Encyclopedia of Philosophy, Diego Barreto e Sandor Caetano, autores do livro O Cientista e o Executivo (Editora Gente”); Dogmel; e Sebrae-RS