Debate
Compartilhe
Temas
Ivan Cláudio Pereira Siqueira
Entender oportunidades e limites da IA facilita o vislumbre de suas potencialidades para reduzir significativamente as improdutivas tarefas burocráticas, que drenam energia e ânimo na gestão, coordenação e docência
Nas duas últimas décadas, tivemos um vertiginoso crescimento da Inteligência Artificial (IA) em inúmeras esferas da vida social (saúde, educação, judiciário, economia, lazer). Na literatura técnica sobre o assunto, isso é frequentemente relacionado ao aperfeiçoamento da arquitetura dos Modelos de Linguagem de Grande Escala (Large Language Models – LLMs), da Inteligência Artificial Generativa, do aumento da capacidade de computação dos processadores e da exponencial disponibilidade de dados na web.
O espetacular surgimento do Chat GPT 3.5, em novembro de 2022, trouxe a IA para o cotidiano mundial. GPT é a sigla para “Generative pre-trained transformer”. Trata-se de uma arquitetura computacional que gera outputs (dados) a partir dos inputs (dados) utilizados no seu treinamento prévio. A expectativa é que, quanto mais dados e aperfeiçoamentos nos algoritmos de treinamento, melhores os resultados. Mas não podemos nos esquecer que o GPT se utilizou da técnica conhecida como RLHF (Reinforcement Learning from Human Feedback). A expressão se refere ao emprego do trabalho de pessoas que arduamente etiquetam, analisam e treinam os algoritmos para que consigam diferenciar alhos de bugalhos. Sem surpresa, essas pessoas são frequentemente recolhidas em países da África e em comunidades pobres de língua inglesa na Índia.
Num curto espaço de tempo, uma empresa que nasceu em 2015 como um centro de pesquisa em IA sem fins lucrativos alcançou o estrelato, e tudo mudou. Com a força do poder midiático, o Chat GPT 3.5 da OpenAI se transformou em fenômeno global, favorecendo discussões sobre a tecnologia inerente ao seu funcionamento. Mas a base dos conhecimentos e técnicas que possibilitaram o recente desenvolvimento da IA têm um longo histórico.
Por exemplo, subcampos de pesquisa da IA como “Machine Learning” (Aprendizado de Máquina), “Deep Learning” (Aprendizado profundo) e “Neural Networks” (Redes Neurais) remontam a um conjunto extenso de estudos interdisciplinares. As Redes Neurais contemporâneas surgem por volta de 2011, mas os algoritmos para inferência em modelagem temporais são bem mais antigos: “Hidden Markov” (Andrei Markov, 1913); “Kalman filters” (Rudolf Kálmán, 1960) e “Dynamic Bayesian Network” (Paul Dagum, 1990).
Mas para o grande público, determinados conceitos, terminologias e siglas tornaram-se mais próximos: LLM, IA Generativa (gerador de outputs) versus Discriminative AI (modelo que classifica diferentes tipos de dados).
Os artigos publicados no nexo ensaio são de autoria de colaboradores eventuais do jornal e não representam as ideias ou opiniões do Nexo. O Nexo Ensaio é um espaço que tem como objetivo garantir a pluralidade do debate sobre temas relevantes para a agenda pública nacional e internacional. Para participar, entre em contato por meio de ensaio@nexojornal.com.br informando seu nome, telefone e email.
Destaques