Case

Do Bug do Milênio à IA: nossa relação com a tecnologia

Em 1999, o mundo prendeu a respiração com o Bug do Milênio, marcando o início de uma crescente e especulativa dependência da tecnologia. O receio era de que a virada do ano resultasse em caos nos computadores, afetando bancos, aviões e sistemas. A mobilização global de especialistas em TI evitou o pior e duas gírias passaram a ser muito mais usadas a partir de então: “bugou” e “bugado”.

O período de 2000 até por volta de 2005 compreendeu a fundação da internet como conhecemos hoje e se transformou com a transição da web 1.0 (estática e centrada na informação) para a web 2.0 (dinâmica, interativa e centrada no usuário), trazendo as redes sociais, os blogs e as plataformas colaborativas que possibilitavam interação e dar voz aos usuários.

Contudo, essa nova interação trouxe à tona debates cruciais sobre privacidade, segurança dos dados e os efeitos da exposição online. My Space e Orkurt, por exemplo, passaram a aplicar verificação de idade, sistema de moderação e/ou políticas de segurança 2 a 3 anos após seus lançamentos: em 2006/2007. Já a Wikipedia e o Blogger vieram com política de segurança e privacidade “de fábrica”.

A partir de 2010, a simbiose entre smartphones e Big Data redefiniu a sociedade: ganhamos eficiência inédita com microsserviços na palma da mão, posteriormente otimizados no formato de aplicativos, que transformaram celulares em ferramentas contínuas de geração e uso de dados. Os 5 Vs (Volume, Velocidade, Variedade, Veracidade e Valor) se faziam presentes através de desafios e dos algoritmos que, aprendendo a decifrar nossos hábitos, iniciaram uma era de experiências mais “inteligentes”.

O Machine Learning começou a ganhar destaque entre 2012 e 2015, com a computação em nuvem ganhando força nas empresas, facilitando a expansão digital e fornecendo a infraestrutura necessária para o desenvolvimento de aplicações de Inteligência Artificial (IA). Com isso, o Deep Learning, um subcampo do Machine Learning e coração da revolução atual da IA,trouxe para o dia a dia a automatização de tarefas antes impossíveis ou inimagináveis.

Em duas décadas, oscilamos do medo à sensação de domínio, ou quase, e surfamos em modas e “ondas” descobrindo o quão valiosos são nossos dados. O termo ‘algoritmo’ virou sinônimo de personalização em alto nível e também de manipulação, com negócios muito lucrativos e outros, como a Cambridge Analytica, pouco éticos.

O ano de 2020 trouxe a pandemia de COVID-19, acelerando a transformação digital de forma inesperada para alguns setores. Ferramentas de videoconferência, telemedicina e educação online se tornaram comuns, muitas delas impulsionadas por algoritmos para melhorar a experiência do usuário e otimizar o uso de recursos. A partir daí, um termo dos anos 1950, que surgiu de avanços na matemática, lógica e neurociência, voltou com força total: IA. Mas a IA, tão comentada, expôs as desigualdades no acesso à tecnologia e chamou a atenção de órgãos que viram a necessidade de uma regulação.

Chegamos a 2025 com a inteligência artificial integrada ao dia a dia de muitos de nós, auxiliando em decisões clínicas e jurídicas, na criação de conteúdo e na vigilância. Os recursos para otimização do tempo e os alertas sobre os vieses dos algoritmos de aprendizado de máquina também passaram a ser algo cotidiano, além do crescente uso indevido da IA e o temor da substituição de empregos humanos por inteligências não-humanas.

Carros elétricos inteligentes desgovernados e robôs humanoides atacando pessoas acenderam o receio de perdermos o controle sobre essa poderosa tecnologia. Na outra ponta, diagnósticos são realizados com maior rapidez em hospitais e estádios implementam reconhecimento facial para liberação de entrada em jogos e shows.

Os buscadores que nos levavam às informações que precisávamos, hoje não satisfazem quem usa assistentes de IA e até pensar numa vida sem ela, analisando diversos aspectos teóricos e práticos, parece ser uma tarefa difícil – ou até impossível. Então, até aqui, podemos dizer que estamos aprendendo e nos alinhando a um bug eterno, já que “inteligência” só pode ser humana, ainda que simulemos características aceleradas da capacidade humana em máquinas.