terça-feira, 12 de agosto de 2025

Codificando no embalo

Segue acelerada a terceirização para a IA de nossas atividades, pensamentos e até decisões. Claro que há muitas vantagens nisso: trabalho facilitado, consulta e pesquisa rápida na maior base de dados humana, geração em minutos de sumários de livros e artigos. Por outro lado, essa nossa crescente passividade, ou, agora que temos um serviçal tão prestativo e eficiente, cair no tentador convite à inação, pode nos levar a ficarmos presos numa armadilha séria, tanto para a ação intelectual independentalge, como, até mesmo, em nossas emoções. Todos conhecemos pessoas que já tem na IA um interlocutor constante, um "amigo" mais próximo que humanos e familiares...

Um ponto da moda, e que já vem vestido do tradicional jargão com que a informática nos brinda, é o "vibe coding", algo como "codificando no embalo". Trata-se de avanço muito rápido na capacidade que aplicativos com IA tem para gerar código de computador. Da provecta experiência de quem usou coisas como Basic, Fortran, Algol, Cobol, posso dizer que se trata da vulgarização da "arquitetura do pensamento computacional", cujo domínio já foi considerado bem valioso: em currículos de profissionais de antanho, não era raro encontrar entre as referências a idiomas dominados, a inclusão dos artificiais, da computação, para mostrar proficiência em pensamento lógico estruturado, e conhecimentos de linguagem que pudesse traduzi-lo em ações e algoritmos para computador. Bem, ocorre que hoje IA consegue receber instruções verbais, e gerar rapidamente código para sua implementação.

De novo, há o outro lado da moeda: em relatório recente, a Veracode - uma das líderes globais em segurança e gestão de riscos em aplicações - analisou 80 tarefas de codificação com potencial para vulnerabilidades, geradas por diferentes tipos de aplicativos LLM. O resultado é preocupante: em 45% dos casos, os modelos implementaram uma forma insegura de código. O avanço na qualidade sintática e funcional não foi acompanhado por cuidados e progressos na gestão da segurança, e isso se repetiu em diferentes versões de LLM. Os números que a Veracode traz são impactantes: a pesquisa identificou vulnerabilidades, entre aquelas definidas no OWASP Top 10 (projeto de segurança para aplicações "open web"). O relatório mostra Java como linguagem em que falhou em 70% dos casos, Python, C# e JavaScript, com falhas entre 38% e 45%.

Usando IA em codificação ganha-se produtividade, mas perde-se robustez. E, pior, a mesma IA que gera código para uso, pode criar código malicioso, ou ataques que se aproveitam das brechas existentes... Ou seja, os atacantes, hoje, nem precisam ser competentes ("hackers") no tema: mesmo os com pouca habilidade técnica poderão usar IA para explorar vulnerabilidades que nem sabiam existir.

Se antes programar era um ato de precisão e engenho, quase uma arte intelectual, hoje, na pressa de produzir, arriscamo-nos a trocar lógica e clareza por outro lema, bem menos nobre: "quick and dirty"- rápido e sujo. Funcionará até alguém achar as fragilidades, como acontece com as gambiarras em geral.

===
https://www.estadao.com.br/link/demi-getschko/codigos-feitos-por-ia-nem-sempre-sao-os-mais-seguros-entenda/





O artigo sobre o problema de segurança quando IA é o codificador:
https://www.businesswire.com/news/home/20250730694951/en/AI-Generated-Code-Poses-Major-Security-Risks-in-Nearly-Half-of-All-Development-Tasks-Veracode-Research-Reveals

Jul 30, 2025 7:50 AM Eastern Daylight Time

AI-Generated Code Poses Major Security Risks in Nearly Half of All Development Tasks, Veracode Research Reveals

Comprehensive Analysis of More Than 100 Large Language Models Exposes Security Gaps: Java Emerges as Highest-Risk Programming Language, While AI Misses 86% of Cross-Site Scripting Threats
https://www.veracode.com/resources/analyst-reports/2025-genai-code-security-report/


BURLINGTON, Mass.--(BUSINESS WIRE)--Veracode, a global leader in application risk management, today unveiled its 2025 GenAI Code Security Report, revealing critical security flaws in AI-generated code. The study analyzed 80 curated coding tasks across more than 100 large language models (LLMs), revealing that while AI produces functional code, it introduces security vulnerabilities in 45 percent of cases.

The research demonstrates a troubling pattern: when given a choice between a secure and insecure method to write code, GenAI models chose the insecure option 45 percent of the time. Perhaps more concerning, Veracode's research also uncovered a critical trend: despite advances in LLMs’ ability to generate syntactically correct code, security performance has not kept up, remaining unchanged over time.

“The rise of vibe coding, where developers rely on AI to generate code, typically without explicitly defining security requirements, represents a fundamental shift in how software is built,” said Jens Wessling, Chief Technology Officer at Veracode. “The main concern with this trend is that they do not need to specify security constraints to get the code they want, effectively leaving secure coding decisions to LLMs. Our research reveals GenAI models make the wrong choices nearly half the time, and it’s not improving.”

AI is enabling attackers to identify and exploit security vulnerabilities quicker and more effectively. Tools powered by AI can scan systems at scale, identify weaknesses, and even generate exploit code with minimal human input. This lowers the barrier to entry for less-skilled attackers and increases the speed and sophistication of attacks, posing a significant threat to traditional security defenses. Not only are vulnerabilities increasing, but the ability to exploit them is becoming easier.

LLMs Introduce Dangerous Levels of Common Security Vulnerabilities

To evaluate the security properties of LLM-generated code, Veracode designed a set of 80 code completion tasks with known potential for security vulnerabilities according to the MITRE Common Weakness Enumeration (CWE) system, a standard classification of software weaknesses that can turn into vulnerabilities. The tasks prompted more than 100 LLMs to auto-complete a block of code in a secure or insecure manner, which the research team then analyzed using Veracode Static Analysis. In 45 percent of all test cases, LLMs introduced vulnerabilities classified within the OWASP (Open Web Application Security Project) Top 10—the most critical web application security risks.

Veracode found Java to be the riskiest language for AI code generation, with a security failure rate over 70 percent. Other major languages, like Python, C#, and JavaScript, still presented significant risk, with failure rates between 38 percent and 45 percent. The research also revealed LLMs failed to secure code against cross-site scripting (CWE-80) and log injection (CWE-117) in 86 percent and 88 percent of cases, respectively.

“Despite the advances in AI-assisted development, it is clear security hasn’t kept pace,” Wessling said. “Our research shows models are getting better at coding accurately but are not improving at security. We also found larger models do not perform significantly better than smaller models, suggesting this is a systemic issue rather than an LLM scaling problem.”

Managing Application Risks in the AI Era

While GenAI development practices like vibe coding accelerate productivity, they also amplify risks. Veracode emphasizes that organizations need a comprehensive risk management program that prevents vulnerabilities before they reach production—by integrating code quality checks and automated fixes directly into the development workflow.

As organizations increasingly leverage AI-powered development, Veracode recommends taking the following proactive measures to ensure security:

Integrate AI-powered tools like Veracode Fix into developer workflows to remediate security risks in real time.

Leverage Static Analysis to detect flaws early and automatically, preventing vulnerable code from advancing through development pipelines.

Embed security in agentic workflows to automate policy compliance and ensure AI agents enforce secure coding standards.

Use Software Composition Analysis (SCA) to ensure AI-generated code does not introduce vulnerabilities from third-party dependencies and open-source components.

Adopt bespoke AI-driven remediation guidance to empower developers with precise fix instructions and train them to use the recommendations effectively.

Deploy a Package Firewall to automatically detect and block malicious packages, vulnerabilities, and policy violations.

“AI coding assistants and agentic workflows represent the future of software development, and they will continue to evolve at a rapid pace,” Wessling concluded. “The challenge facing every organization is ensuring security evolves alongside these new capabilities. Security cannot be an afterthought if we want to prevent the accumulation of massive security debt.”

The complete 2025 GenAI Code Security Report is available to download on the Veracode website.
https://www.veracode.com/resources/analyst-reports/2025-genai-code-security-report/

About Veracode

Veracode is a global leader in Application Risk Management for the AI era. Powered by trillions of lines of code scans and a proprietary AI-assisted remediation engine, the Veracode platform is trusted by organizations worldwide to build and maintain secure software from code creation to cloud deployment. Thousands of the world’s leading development and security teams use Veracode every second of every day to get accurate, actionable visibility of exploitable risk, achieve real-time vulnerability remediation, and reduce their security debt at scale. Veracode is a multi-award-winning company offering capabilities to secure the entire software development life cycle, including Veracode Fix, Static Analysis, Dynamic Analysis, Software Composition Analysis, Container Security, Application Security Posture Management, Malicious Package Detection, and Penetration Testing.

terça-feira, 29 de julho de 2025

Palavras, palavras.

Napoleão Mendes de Almeida abre seu Dicionário de Questões Vernáculas com “se o estilo reflete o homem, o idioma reflete o povo”. Nós, lusófonos, temos um belo e rico patrimônio a proteger. Não tenho a pretensão nem a competência de examinar o tema com profundidade, mas a verdade é que a tendência que vejo me provoca incômodo. Estou indo além de minhas chinelas de engenheiro, mas tive a sorte de, no colégio, ouvir de bons mestres da língua.

O idioma é algo dinâmico. Palavras e expressões antigas caem em desuso, enquanto novas vão sendo incorporadas, muitas vezes mimetizando outras línguas. A priori nada há de errado nisso. Mas, talvez, a tentação de mostrar erudição e atualidade leve muitos a usarem estrangeirismos, mesmo quando há uma perfeita palavra em português para aquilo. Neologismos são e devem ser incorporados quando um conceito novo se apresenta. Mas seria este o caso do uso de “light” em lugar de ”leve”? Teria “level” mais sentido que “nível”, “off” mais conteúdo que “desconto”, “sale” que “liquidação”?

Para a incorporação de vocábulos parece-me que o aportuguesamento seria o melhor caminho. Afinal, de “football” fizemos futebol, de “back”, o beque, de “ballet” o balé… Millôr já escrevia “saite”, no lugar de site ou sítio. Se crianças aprenderam o som de “i” em português, estranharão se um “i” for lido como “ai”. Oswald de Andrade, em seu Manifesto Antropófago, ia nessa linha: há que se absorver os conceitos de outras culturas, digeri-los e incorporá-los à nossa. Ao modo dos indígenas que, ao devorar um inimigo valoroso, criam que seus predicados se adicionariam aos deles.

Um outro ponto que causa assombro é a deformação semântica que radicais usuais na lingua estão sofrendo… Desde sempre, do grego, fobos/fobia é medo. Ao que modismos importados propagam, fobia passa a ser “ódio”, para o qual já tinhamos “misia”. Não apenas se deturpa a semântica do radical, como se montam palavras gramaticamente teratológicas, como “gordofobia”. Outra batalha perdida é tentar recuperar o sentido de “ciber”, raíz grega que, via latim, nos deu “governo”. Quando Norbert Wiener escreveu “Cybernetics” em 1948, cunhando o termo, decreveu-o como “sobre o controle e comunicação em animais e máquinas”. Ou seja, “cibernética” seria algo como “governética”, bem distante de eletrônica ou redes.

Há também uma tendência - talvez para mostrar sofisticação - de esquecer ou simplesmente ignorar o nome do toponímico em português. Ora, aqui dizemos Londres, Alemanha, Florença, mesmo sabendo que os locais falam London, Deutschland e Firenze. Então por que trocar o tradicional Pequim por Beijing? Ou Ceilão por Sri Lanka?

Uma última linha de barbarismos é importar semântica estrangeira para uma palavra de raíz latina… Quando usamos “realizar” como “dar-se conta de” estamos dando um sentido inglês da palavra, inexistente em português.

Aos riscos tecnológicos que já corremos, não precisamos adicionar o de perder o idioma. Orwell já tinha alertado que, se o pensamento corrompe a linguagem, a linguagem também pode corromper o pensamento.

===
https://www.estadao.com.br/link/demi-getschko/aos-riscos-tecnologicos-que-ja-corremos-nao-precisamos-adicionar-o-de-perder-o-idioma/

===




https://pt.wikipedia.org/wiki/Napole%C3%A3o_Mendes_de_Almeida
Napoleão Mendes de Almeida

===
https://williamshakespearewilliam.blogspot.com/2009/02/hamlet-ato-ii-cena-ii.html
HAMLET, ATO II, Cena II
Polônio: Que é que o meu príncipe está lendo?
Hamlet: Palavras, palavras, palavras...
Polônio: A que respeito, príncipe?
<...>
Hamlet: Calúnias, meu amigo. Este escravo satírico diz que os velhos têm a barba grisalha, a pele do
rosto enrugada, que dos olhos lhes destila âmbar tenue e goma de ameixeira, sobre carecerem de espírito
e possuírem pernas fracas. Mas embora, senhor, eu esteja íntima e grandemente convencido da verdade
de tudo isso, não considero honesto publicá-lo;

terça-feira, 15 de julho de 2025

O Novo Normal

Notícia recente sobre fraudes: uma autoridade foi personificada com o uso de voz e vocabulário parecidos com os seus. O evento foi qualificado como exemplo de “um novo normal”. Um dos últimos bastiões em que humanos se apoiam – seus sentidos, as recordações que tem de rostos, timbres, formas de expressão – parece superado por ferramentas de tecnologia: quem dispuser de uma simples foto de alguém, e gravação de trechos curtos de sua fala, poderia facilmente mimetizar essa pessoa. Especialmente no caso de personagens públicas, é trivial achar não apenas fotos e trechos de voz, como textos e falas, que podem “ensinar” a ferramenta a imitar o jeito da vítima. Não há moderador automatizado capaz de impedir que um falso ministro fale como um verdadeiro.

Estamos ultrapassando limiares não triviais, e as consequencias são difíceis de avaliar. A confiança em nossos instintos e sensações está sendo erodida por uma tecnologia que nos assegura podermos confiar na análise que ela faz do ambiente que no cerca. Ao contrário dos animais, que aprenderam atavicamente a identificar perigos e, até hoje, respondem a esses impulsos instintivos, a civilização nos legou uma visão menos “intuitiva” e mais intelectual na avaliação da realidade. O risco é que a tecnologia tende a embotar ainda mais esse nosso discernimento original. Em termos dos conceitos de “sinal e ruído”, definidos por Claude Shannon há mais de 70 anos, está cada vez mais difícil separar o que é uma mensagem real recebida, de um indesejável ruído. Pior que isso, estamos delegando a essa mesma tecnologia - que pode travestir ruído de sinal - apoiar-nos nessa seleção. Se algo passou pelos “filtros”, então é verdade e pode ser aceito pelo destinatário: opta-se por uma tutela digital que dispensa a necessidade de pensamento crítico próprio e o terceiriza à tecnologia de que dispomos.

Antes falei da “inútil precaução”, no Barbeiro de Sevilha, como exemplo da inutilidade de certas proteções, que nos levam a esquecer a busca dos reais perpetradores do mal. Toda a cadeia de transmissão tem responsabilidade no processo, mas é importante identificar o agente central e o objetivo visado. O “novo normal” nos mantem reféns de uma análise rápida e superficial do que nos cerca, enquanto abrirmos mão de esforços pessoais maiores, que resultariam em melhor apreensão crítica da realidade e dos perigos que sobrevêm.

Outroa referência que me veio à mente agora: “O Deserto dos Tártaros”, de Dino Buzzati. Em linha que lembra temas de Kafka, o livro narra como o protagonista se prepara, a vida toda, para enfrentar uma iminente invasão de tártaros que… nunca ocorre. Sua rotina se limita ao forte Bastiani, enquanto espera o ataque iminente um inimigo abstrato. Em sua imobilidade, torna-se vítima de outras ameaças reais, e consome a existência nessa espera infinda. Acreditar que perigos possam ser automaticamente apagados, silenciados ou filtrados, em vez de enfrentados com lucidez, talvez seja um passo perigoso rumo à nossa desumanização.

===
https://www.estadao.com.br/link/demi-getschko/esta-cada-vez-mais-dificil-separar-o-que-e-uma-mensagem-real-e-o-que-e-um-ruido-na-tecnologia/

===
O artigo sobre fraude:
: https://edition.cnn.com/2025/07/12/politics/fake-ai-calls-us-officials

===
Shannon - teoria da informação
https://pt.wikipedia.org/wiki/Teoria_da_informa%C3%A7%C3%A3o

===
O Deerto dos Tártaros:
https://pt.wikipedia.org/wiki/O_Deserto_dos_T%C3%A1rtaros

https://wp.ufpel.edu.br/observatoriocuid/2019/05/28/dica-de-leitura-o-deserto-dos-tartaros/






terça-feira, 1 de julho de 2025

A Inútil Precaução

Poucas óperas são tão populares como a versão, musicada por Rossini, de O Barbeiro de Sevilha. Baseia-se em texto de Beaumarchais, mas foi composta uns 50 anos depois. Além do impagável Fígaro, o fac-totum da cidade, há aspectos mais sutis, como revela o subtítulo da obra: “A Inútil Precaução”. No Barbeiro, o velho doutor Bartolo, temendo perder sua jovem pupila, tranca-a em casa, vigia seus passos e tenta controlar o mundo ao redor para evitar o inevitável: o florescimento do desejo e da busca por liberdade. Claro que seus esforços são vãos: a precaução, além de inútil, estimula o ardil, o engano, a astúcia, e Rosina escapa da “proteção”.

Talvez algo de Bartolo subsista em certas decisões públicas que, tomadas para evitar a desordem, a mentira ou o abuso, podem se voltar contra os próprios fundamentos de liberdade e de confiança que se propunham a proteger. Ao fragilizar os princípios do artigo 19, o Brasil se arrisca a criar um ambiente de autocensura preventiva e silenciamento difuso, sem que isso combata efetivamente abusos que motivariam a mudança. É a velha armadilha do remédio errado, ou forte demais, para a doença. O editorial de domingo do Estadão cobre em detalhes o tema.

Para exemplificar um potencial paradoxo, frase no julgamento do art. 19 do MC que ressou fortemente foi da Ministra Cármen Lúcia, ao resumir o desafio: é preciso “impedir que 213 milhões de pequenos tiranos soberanos dominem os espaços digitais”. O resultado do julgamento, porém, pode ir na direção oposta: o “notice and take down”, estaria criando milhões de potenciais tiranetes que, ao se ofenderem ou simplesmente desgostarem de um texto, pedirão sua remoção. E o pedido será prontamente atendido pelos que “tem juízo e não querem correr riscos jurídicos”. Para evitar que todos tenham voz irrestrita, entrega-se a todos o poder de calar. E, caso o autor queira o restabelecimento do texto, daí sim teria que procurar a justiça para buscar seus direitos … sem direito a indenização.

Delega-se a plataformas privadas a decisão sobre o que pode ou não circular. Elas tenderão a remover rapidamente tudo que tenha sido “denunciado”, varrendo sátiras e debates públicos junto com conteúdos realmente danosos. Essa estrutura concentra poder nas mãos das próprias plataformas, que passam a ser as juízas silenciosas do discurso público. O que se pretendia como freio ao caos transforma-se num motor guiado por algoritmos, filtrado por interesses comerciais e estimulado por notificações. Enquanto isso, os verdadeiros autores de conteúdos ilícitos — organizados, anônimos, adaptáveis — continuam a atuar nas margens.

Para Beaumarchais, a tentativa de proteger um bem pela via do controle total não previne o mal, apenas o desloca e o oculta. O conteúdo abusivo não desaparece: muda de plataforma, escapa do radar, radicaliza-se. E, no processo, perdem-se também vozes legítimas, críticas incômodas, denúncias necessárias.

Se o século XVIII riu com a “inútil precaução” de Bartolo. talvez o século XXI precise chorar a nossa — que, vestida de justiça, pode nos afastar perigosamente da liberdade.

===
como aparece no estadão:
https://www.estadao.com.br/link/demi-getschko/decisao-sobre-o-artigo-19-pode-nos-afastar-perigosamente-da-liberdade/

===
A inútil precaução:


https://www.youtube.com/watch?v=3h3vPg9yBFg&list=RD3h3vPg9yBFg&start_radio=1



terça-feira, 17 de junho de 2025

Paradoxos e cacoetes

Pós-redes o mundo tornou-se hostil: fraudes, mentiras e armadilhas espreitam a cada passo. Ou será que foram os humanos? Clima propício a propostas apressadas, visando a minimizar nossos riscos. A prudência recomendaria mais cautela: “Festina Lente”, diria o imperador Augusto: “apressa-te devagar”. Trocou-se a prioridade? Parece agora ser menos importante a busca do agente causador o dano, do que criar formas que impeçam a sua ação. Ao invés de buscar caçar o lobo que abusa, prefere-se cercar e isolar a floresta onde ele viveria, mesmo sabendo que há seres inocentes habitando lá.

Na discussão sobre o artigo 19 do Marco Civil, é importante uma pequena digressão: fonte de sua inspiração foi também a seção 230 do “Communications Decency Act” norte-americano de 1996, 18 anos antes da promulgação do Marco Civil em 2014. E, já em 1998, o DCMA “Digital Millenium Copyright Act” abria uma exceção à proteção que o 230 trazia às plataformas: a alegação de “infração a direito autoral” faria com que o conteúdo fosse removido, sem necessidade de ordem judicial. Aliás o Marco Civil também prevê exceções, como da divulgação não autorizada de imagens de nudez. Nos EUA tentou-se expandir a ação deste “notifique e será removido” (notice and takedown) quando, em 2011, os famosos casos do SOPA (Stop Online Piracy Act) e do PIPA (Protect IP Act), se propunham a remover conteúdos, nomes de domínio, etc. Isso poderia trazer uma onda de censura e auto-censura, que deformaria a internet. A comunidade internmet se alvoroçou! Em 2012, em movimento uníssono, usuários e plataformas rejeitaram o “notice and takedown” - a própria Wikipedia removeu por 24 horas seu conteúdo em inglês, como forma de protesto. Alguns países adotaram medidas intermediárias, a partir da idéia de remoção por notificação. Caso interessante é o do Canadá, com o “notice and notice”: quando uma plataforma recebe uma reclamação sobre um conteúdo, ela é repassada ao autor, mas mantem-se o conteúdo no ar. - caberá ao autor decidir se prefere removê-lo e não correr riscos legais, ou se o preservá-lo, independentemente da reclamação.

Fechar a floresta não elimina o lobo, apenas o desloca. Diógenes de Sinope, com ironia, ensinava que não são as muralhas que protegem a cidade, mas a concórdia entre os cidadãos (Diógenes Laércio, VI.20). Ou seja, é a educação e a ética que geram qualidade na convivência social, no diálogo e no respeito mútuo. O caminho mais seguro não é alçar entidades em censores preventivos, mas sim responsabilizar os agentes pelos seus próprios atos, com processo e aplicação firme da lei. Isso inclui indivíduos e empresas, especialmente as que conhecem e se valem do conteúdo que recebem. Soluções rápidas costumam gerar remédios piores que a doença, erodindo a própria vitalidade democrática que pretendiam proteger. Há que se lidar com as consequências da liberdade, não eliminá-la em nome de uma segurança absoluta, que não existe. Como diriam na Atenas antiga, avançamos na “techne”, mas talvez tenhamos retrocedido na “phronesis”.

===
https://www.estadao.com.br/link/demi-getschko/censura-nao-e-o-caminho-para-internet-segura-e-preciso-responsabilizar-agentes-por-seus-atos/

===
Communications Decency Act
https://www.internetsociety.org/blog/2023/02/what-is-section-230-and-why-should-i-care-about-it/

SOPA
https://pt.wikipedia.org/wiki/Stop_Online_Piracy_Act

PIPA
https://pt.wikipedia.org/wiki/PROTECT_IP_Act

Marco Civil
https://pt.wikipedia.org/wiki/Marco_Civil_da_Internet
https://www.cgi.br/pagina/marco-civil-law-of-the-internet-in-brazil/180
https://www.dw.com/pt-br/dilma-sanciona-marco-civil-e-critica-espionagem-em-evento-em-sp/a-17588584







terça-feira, 3 de junho de 2025

CGI Balzaquiano

Trinta anos é um marco! Além do conceito balzaquiano de maturidade e plenitude, vem à mente o belo livro de Paulo Francis, “Trinta anos nesta noite”, publicado em 1994. Foi exatamente em 31 de maio de 2025 que o CGI comemorou 30 anos de criação, numa portaria conjunta de dois ministros: o das Comunicações (Sérgio Motta) e o da Ciência e Tecnologia (José Israel Vargas). Não por coincidência, no mesmo dia Sérgio Motta publicava uma portaria - Norma 4 - definindo a separação entre telecomunicações e Internet. Em 2009, dezesseis anos depois, o CGI publicava o Decálogo de Princípios para a Internet que, em 2014, seria a base do Marco Civil.

O espaço de liberdade, inovação e comunicação que a Internet criava foi, tempestivamente, muito bem entendido no Brasil, pioneiro em criar um órgão multissetorial que orientasse a evolução da rede que chegara ao país havia 4 anos. Essa antevisão foi festejada nos círculos mundiais de Internet, e serviu de inspiração para muitas iniciativas multissetoriais. Complemento virtuoso: os recursos que, desde 1997 passaram a vir com a cobrança de registros sob o .br, foram redirecionais para a própria Internet no Brasil, via um conjunto de ações que o NIC.br implementa e suporta.

Mas, como diria o Barão de Itararé, “tudo seria fácil, se não fossem as dificuldades…”. O que começou distribuido, compartilhado e apoiado nas ações de cada um foi, em curto tempo, concentrando-se em redes sociais, plataformas e sistemas que, se por um lado prometem conforto e facilidade aos usuários, por outro podem levá-los a uma realidade sintética e enviesada. E ainda sem falar da IA, que nos espreita ao virar da esquina, com uma eventual redefinição de “realidade”...

As redes sociais nasceram como espaços livres, mas tornaram-se campo de batalha entre inovação, segurança e privacidade. Em 2025, mais de 4,7 bilhões de pessoas — cerca de 60% da população global — estão conectadas a plataformas digitais. No Brasil, onde a Internet alcança 80% da população, elas são parte do cotidiano, do empreendedor que precisa anunciar, ao jovem que busca pertencimento. E é aí, especialmente aos menores de idade, que o impacto das plataformas tem gerado inquietação e mais discussões sobre regulamentação. Há leis que podem ser usadas: o ECA, leis sobre calúnia e difamação etc, mas é importante destacar o que o decálogo já apontava: busquemos os reais autores, sejam eles humanos, sejam algoritmos que decidem o que enviar, e a quem.

Um dos temas que o CGI apresentou no evento de seus trinta anos foi uma proposta inicial para um novo decálogo, esse sobre Princípios para Regulação de Redes Sociais. O documento foi colocado em consulta pública, visando a contribuições e aprimoramentos.

===
Trinta anos do CGI:
https://www.estadao.com.br/link/demi-getschko/trinta-anos-de-cgi-os-paradoxos-que-a-internet-criou-no-brasil/

===
Frases impagáveis do Barão de Itararé:
https://observalinguaportuguesa.org/82413-2/

===
O livro do Paulo Francis, de 1994:



===
Tipologia de redes sociais:
https://dialogos.cgi.br/tipologia-rede/documento/

===
O decálogo sonbre redes sociais colocado em consulta pública:
https://cgi.br/publicacao/sistematizacao-das-contribuicoes-a-consulta-sobre-regulacao-de-plataformas-digitais/

https://www.cgi.br/noticia/releases/cgi-br-lanca-proposta-de-principios-para-a-regulacao-de-redes-sociais-e-abre-consulta-para-receber-contribuicoes-da-sociedade/

1. Soberania e segurança nacional
2. Liberdade de expressão, privacidade e direitos humanos
3. Autodeterminação informacional 
4. Integridade da Informação
5. Inovação e desenvolvimento social
6. Transparência e prestação de contas
7. Interoperabilidade e portabilidade
8. Prevenção de danos e responsabilidade
9. Proporcionalidade regulatória
10. Ambiente regulatório e Governança Multissetorial



terça-feira, 20 de maio de 2025

Um lobo!

Não se sabe muito sobre Esopo, que teria vivido no século VI a.C: segundo a tradição, foi escravo e conquistou sua liberdade graças à sua invulgar inteligência e sabedoria. Suas fábulas atravessaram os séculos e continuam servindo como apóstrofe e advertência para muitas situações contemporâneas. Uma delas, a do menino que gritava “lobo!”, me veio à mente enquanto testava o que se consegue hoje com as diversas ferramentas de IA disponíveis.

Na citada fábula, um pastorzinho querendo se divertir com a reação dos aldeões, grita “lobo!” enquanto apascenta suas ovelhas. Claro que todos saem em socorro do pastor, mas revela-se que eram “fake news” – não havia lobo. Satisfeito com o resultado, passados alguns dias o pastorzinho renova a pegadinha: “lobo!”. De novo o pessoal acorre e, de novo, não há lobo nenhum. Mais algum tempo se passa e, de repente, um lobo real e poderoso aparece. O pastor, desesperado, clama “lobo!” mas, desta vez, os aldeões, vacinados pelas mentiras anteriores, não comparecem. O resultado é que o lobo devora o rebanho.

A analogia que me veio à mente é com as ondas de inteligência artificial, seus ciclos de promessas, frustrações e renascimentos. Por repetição ou exagero de propaganda, IA acabava por ser desacreditada até que, enfim, o “lobo” apareceu.

A primeira onda da IA, nascida no entusiasmo das décadas de 1950 e 60 quando a computação já amadurecia, prometeu máquinas pensantes, lógicas, capazes de simular o raciocínio humano. Foi a época do Eliza (1966) e outros sistemas interativos, mas que frustraram as expectativas, mostraram-se simplórios e distantes da promessa. O resultado foi o primeiro “inverno da IA”, com o fim de investimentos na área…

Após o primeiro “inverno”, veio a segunda onda, 1980 e 90, com uso intenso de estatística, e a proposta de redes neuronais. Foi marcada pelo aumento na capacidade de processamento, com avanços notáveis em reconhecimento de padrões e em tarefas específicas, mas IA em si ainda parecia mais propaganda do que uma transformação estrutural em curso. Em 1997, o “Deep Blue” da IBM, usando computação de “força bruta” e sem aprendizado, derrotou Kasparov: a máquina ameaçava o homem, mas o público desacreditava de sistemas que aprendessem. Ainda não era o “lobo”. Seguiu-se outro “inverno” de IA.

A terceira onda vem em 2010 com aprendizado profundo de máquina, sistemas generativos criando textos e imagens sintéticas com muita verossimilhança, a “Era da Experiência”. Além de sistemas que digerem o que há no mundo e agem de forma autônoma, agora eles otimizam estratégias e propõem suas próprias perguntas. Em breve IA estará implantando soluções que não passaram pelo crivo humano. O “lobo” agora é real e está no meio de nós, silencioso e efetivo. O risco não está em reagir demais — está em não reagir mais.

Outro sinal dos tempos são os bonecos que simulam crianças: os tais “reborn”. Há os que se apegam a eles intensamente, a ponto de superar seu vínculo com humanos. Será o “lobo da IA” um “reborn” que vai substituir nossas conversas com amigos e nossos relacionamentos emocionais? Alerta!

===
A fábula:
https://www.fabulasdeesopo.com.br/p/o-menino-do-pastor-e-o-lobo.html



os invernos da IA:
https://www.institutodeengenharia.org.br/site/2018/10/29/a-historia-da-inteligencia-artificial/

algumas previsões preocupantes:
https://ai-2027.com/