
“Uso bastante, nem que seja para saber o que outros fizeram ou para refletir se devemos pensar precisamente ao contrário,” disse Kristersson, referindo-se à IA como uma forma de obter uma “segunda opinião”.
Embora o líder sueco tenha esclarecido que não submete informações sensíveis ou relatórios confidenciais a essas ferramentas, a declaração levantou preocupações sobre segurança, transparência e responsabilidade política.
Especialistas em cibersegurança, como a investigadora Simone Fischer-Huebner, alertaram para os riscos de fuga de dados sensíveis e destacaram que a IA não está sujeita aos mesmos controlos que se aplicam a informações governamentais.
A frase “Nós não votámos no ChatGPT” tornou-se viral, refletindo o descontentamento de parte da população e da comunidade acadêmica. Para muitos, essa prática representa uma perigosa dependência tecnológica em funções que deveriam ser exclusivamente humanas.
Ainda assim, há quem defenda o uso da IA. O ex-deputado Mathias Sundin, defensor da tecnologia, afirmou que ferramentas como o ChatGPT podem ajudar líderes a evitar pensamento em túnel, promovendo maior diversidade de ideias e soluções.
A polémica reacende o debate sobre os limites éticos e legais da inteligência artificial na política, sobretudo num contexto onde cada vez mais líderes buscam apoio tecnológico para enfrentar a complexidade das decisões modernas