TRE-RN instala posto de atendimento para regularização de eleitores no Shopping Cidade Verde
O Shopping Cidade Verde recebe um posto itinerante do Tribunal Regional Eleitoral do Rio Grande do Norte (TRE-RN) a partir desta quinta-feira (12). O atendimento vai acontecer nos meses de março e abril, de quinta a domingo para facilitar que os eleitores com pendência possam ficar regulares com a Justiça Eleitoral até 6 de maio, prazo final para garantir a participação nas eleições deste ano.
O posto está localizado em frente o guichê do estacionamento e oferece serviços como alistamento, transferência, revisão biométrica, emissão de segunda via e regularização de títulos cancelados ou suspensos. O horário de funcionamento é das 9h às 20h de quinta a sábado e das 15h às 20h aos domingos e os documentos exigidos são RG e comprovante de residência.
De acordo com o TRE-RN, a instalação do posto itinerante tem o objetivo de agilizar a regularização eleitoral, principalmente para os 139 mil eleitores que ainda não realizaram a coleta biométrica. A identificação através da biometria permite, além de maior segurança nas eleições, mais agilidade na votação e o acesso a alguns serviços e contas do Governo Federal.
Serviço: Posto itinerante do TRE-RN De quinta a domingo nos meses de março e abril Das 9h às 20h de quinta a sábado e das 15h às 20h aos domingos
Competição gratuita funciona como maratona de inovação e desafia jovens a desenvolver soluções para problemas reais da indústria
O Serviço Nacional de Aprendizagem Industrial (SENAI) abriu as inscrições para a edição 2026 do Grand Prix de Inovação, uma das principais competições educacionais voltadas ao desenvolvimento de soluções para desafios reais da indústria. Neste ano, o evento será realizado 100% em formato digital, ampliando o alcance da iniciativa e permitindo a participação de estudantes de todos os estados do país.
Os interessados podem se inscrever gratuitamente na plataforma oficial do Grand Prix até 4 de abril, submetendo suas ideias e formando equipes para disputar a maratona de inovação.
Maratona de inovação para resolver desafios da indústria
Estruturado como um hackathon, o Grand Prix de Inovação funciona como uma corrida de inovação aberta. Durante a competição, equipes multidisciplinares, chamadas de “escuderias”,desenvolvem propostas de solução para desafios contemporâneos da indústria, passando por etapas de ideação, modelagem de negócio e prototipagem.
A iniciativa faz parte das ações do SENAI voltadas ao fortalecimento da cultura de inovação e empreendedorismo entre estudantes. O objetivo é aproximar jovens talentos dos problemas reais enfrentados pelo setor produtivo e estimular o desenvolvimento de habilidades como criatividade, pensamento crítico, trabalho em equipe e resolução de problemas.
Na edição de 2026, os desafios propostos abordam temas estratégicos para o futuro da indústria, como:
Acessibilidade e inclusão;
Descarbonização e eficiência energética;
Cibersegurança e ética digital;
Robótica colaborativa;
Manufatura aditiva e novos materiais.
As equipes devem ser formadas por quatro a cinco estudantes, podendo incluir até dois alunos de ensino superior.
Quem pode participar?
A competição ocorre entre 13 e 17 de abril e é aberta a estudantes a partir de 15 anos, matriculados no ensino fundamental, médio, técnico ou superior.
Podem participar alunos do SENAI, SESI e também de escolas públicas e privadas de todo o país, o que amplia o alcance da iniciativa e promove maior diversidade de ideias entre os participantes.
Premiação e reconhecimento
A cerimônia de premiação está prevista para 5 de maio, também em formato online. Os vencedores recebem troféus e medalhas, enquanto todos os participantes ganham certificado de participação.
Além disso, as instituições de ensino com melhor desempenho ao longo da competição concorrem ao Prêmio Destaque Institucional, concedido às escolas que mais se destacarem nas categorias SENAI, SESI, rede pública e rede privada.
O avanço da inteligência artificial generativa inaugurou uma nova etapa da revolução digital. Sistemas capazes de produzir textos, imagens, vídeos, áudios e códigos com impressionante realismo passaram a fazer parte da rotina de empresas, governos e milhões de usuários. Ferramentas como ChatGPT, Gemini, Claude e Llama ampliaram as possibilidades de inovação em áreas que vão da saúde à educação, do direito ao mercado financeiro.
Mas, junto com o entusiasmo tecnológico, cresce também um debate urgente: como garantir que essa transformação aconteça de forma ética, transparente e respeitosa com os direitos individuais?
Para o especialista em tecnologia Thiago Souza, consultor em arquitetura cloud, DevOps e engenharia de dados, com experiência em projetos de modernização de infraestrutura e automação em ambientes AWS, a discussão vai muito além de inovação ou produtividade. “Estamos construindo sistemas capazes de influenciar decisões sobre empregos, crédito, diagnósticos médicos e até liberdade civil. Quando essas decisões são tomadas com base em padrões estatísticos que muitas vezes nem os próprios desenvolvedores conseguem explicar completamente, entramos em um debate que envolve direitos fundamentais e responsabilidade social”, afirma.
O desafio da “caixa-preta”
Grande parte dos sistemas de inteligência artificial funciona como uma espécie de “caixa-preta”: recebem dados, processam informações e produzem respostas complexas, mas sem que seja possível compreender com clareza todo o caminho que levou àquela decisão.
Esse problema se torna ainda mais sensível quando a tecnologia passa a atuar em áreas críticas. Um algoritmo que influencia concessões de crédito, recomenda diagnósticos médicos ou analisa currículos de candidatos a emprego pode gerar impactos concretos na vida das pessoas.
Por isso, cresce globalmente o movimento pela chamada IA explicável, ou Explainable Artificial Intelligence (XAI), um conjunto de técnicas que busca tornar mais compreensível a lógica por trás das decisões automatizadas. “Em um Estado de Direito, toda decisão que afeta um cidadão precisa ser justificável”, diz Souza. “Se delegamos parte dessas decisões a sistemas automatizados, precisamos garantir que eles também possam explicar suas escolhas.”, completa.
Quando a IA erra – e erra com confiança
Outro fenômeno que preocupa pesquisadores é o das chamadas “alucinações” da inteligência artificial. Modelos de linguagem podem gerar informações falsas com a mesma segurança e fluidez com que apresentam dados corretos.
Casos recentes mostram que esse tipo de erro não é apenas teórico. Em tribunais, por exemplo, já houve situações em que documentos jurídicos incluíram precedentes inexistentes gerados por sistemas de IA.
Em contextos sensíveis, como medicina ou serviços financeiros, esse tipo de falha pode gerar consequências sérias. Por isso, especialistas defendem que sistemas de alto impacto sempre incluam mecanismos de verificação humana.
Privacidade sob pressão
Se por um lado cresce a demanda por transparência, por outro surge uma tensão inevitável: a própria inteligência artificial é treinada com enormes volumes de dados produzidos por pessoas: textos, imagens, registros e conteúdos disponíveis na internet.
Esse modelo de treinamento tem levantado debates sobre privacidade, direitos autorais e uso de dados pessoais. Em diferentes países, autoridades regulatórias já começaram a questionar empresas sobre a origem e a legalidade das informações usadas para treinar algoritmos.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) estabelece regras para o tratamento de dados pessoais e garante ao cidadão o direito de solicitar revisão de decisões tomadas exclusivamente por sistemas automatizados. “Os dados que tornam os modelos mais inteligentes são os mesmos dados que pertencem às pessoas”, explica Souza. “Encontrar o equilíbrio entre inovação tecnológica e proteção de direitos é um dos maiores desafios da próxima década.”, conclui.
Deepfakes e desinformação
Entre os riscos mais visíveis da inteligência artificial generativa está a criação de deepfakes: vídeos, imagens ou áudios falsos que simulam pessoas reais com alto grau de realismo.
Essas tecnologias já foram usadas em golpes financeiros, campanhas de desinformação e ataques reputacionais. Em muitos casos, vítimas descobrem tarde demais que sua imagem ou voz foi manipulada digitalmente.
Para enfrentar o problema, novas legislações internacionais começam a exigir mecanismos de identificação de conteúdo gerado por IA, como marcas digitais e sistemas de rastreamento.
O papel da regulação
Diante desse cenário, países e organizações internacionais vêm desenvolvendo marcos regulatórios específicos para a inteligência artificial.
Para Thiago Souza, o momento é decisivo. “A inteligência artificial generativa pode ser uma das ferramentas mais poderosas já criadas pela humanidade. Mas o verdadeiro avanço não está apenas no que ela consegue fazer, e sim em como escolhemos usá-la.” Segundo ele, o futuro da tecnologia dependerá da capacidade de governos, empresas e sociedade de construir modelos de governança que conciliem inovação, transparência e respeito aos direitos individuais. “A pergunta central não é se a IA pode fazer algo. A pergunta é: em nome de quem ela faz, com os dados de quem e com prestação de contas para quem.”, finaliza.
Planetários itinerantes ampliam acesso à ciência e transformam experiências educacionais
Iniciativas móveis levam astronomia e tecnologia a escolas de diferentes regiões do país
O uso de planetários itinerantes tem se consolidado como uma ferramenta relevante para ampliar o acesso à ciência e estimular o interesse pelo conhecimento entre estudantes de diferentes realidades sociais. De acordo com o astrônomo e professor Emerson Roberto Perez, da Urânia Planetário, essa iniciativa permite levar experiências imersivas de astronomia e divulgação científica diretamente para escolas e comunidades que muitas vezes não têm acesso a equipamentos tecnológicos ou centros de ciência.
A proposta de um planetário móvel vai além de uma simples sessão de observação do céu. O projeto inclui apresentações educativas, conteúdos audiovisuais e atividades pedagógicas que aproximam alunos de temas científicos complexos de maneira acessível e envolvente. Em muitos casos, essa pode ser a primeira oportunidade de estudantes conhecerem tecnologias utilizadas na divulgação científica e explorarem conceitos ligados ao Universo, à física e à exploração espacial.
As atividades também são estruturadas para dialogar com o ambiente escolar. Professores e alunos podem participar de oficinas pedagógicas alinhadas à Base Nacional Comum Curricular (BNCC), além de ter acesso a cursos gravados, lives sobre observação do céu e materiais de apoio desenvolvidos para utilização em sala de aula. Esse conjunto de recursos amplia o alcance da experiência, integrando o planetário às práticas educativas e estimulando discussões científicas mesmo após a realização do evento.
Segundo Emerson Roberto Perez, a astronomia possui um caráter integrador que conecta diferentes áreas do conhecimento e desperta a curiosidade científica. Quando levadas para comunidades escolares, essas experiências também fortalecem o vínculo entre alunos, professores e famílias, criando um ambiente de aprendizado coletivo e motivador.
A expansão de iniciativas como os planetários itinerantes demonstra o potencial da divulgação científica como ferramenta educacional e social. Ao aproximar estudantes do conhecimento sobre o Universo, essas ações contribuem para despertar vocações, incentivar a investigação científica e reforçar o papel da educação como motor de transformação social.
Para saber mais assuntos sobre ciência e astronomia, acesse Urânia Planetário – YouTube ou pelo instagram @uraniaplanetario.
IA sem orquestração é um risco que as empresas ainda subestimam
Por Fernando Baldin, Country Manager LATAM da AutomationEdge
A adoção de inteligência artificial nas empresas avançou rápido até demais, em muitos casos, organizações estão colocando IA dentro de processos críticos com o mesmo nível de controle que usariam em uma ferramenta experimental. Isso, na prática, é um acidente anunciado.
Existe uma premissa que ainda é pouco discutida fora dos times técnicos, que a IA, por natureza, não é determinística, especialmente nos modelos generativos, onde há um risco real de inconsistência, interpretação equivocada e até “alucinação”. Isso não é um defeito, é uma característica da tecnologia. O problema começa quando essa característica é ignorada dentro de processos de negócio que exigem precisão, rastreabilidade e conformidade.
Não existe uso seguro de IA em escala sem orquestração e validação
Muita gente ainda associa inteligência artificial à ideia de agentes que executam tarefas específicas e esse modelo funciona bem em vários cenários. São aplicações com começo, meio e fim, regras claras e escopo limitado. Um agente que classifica e-mails, extrai dados de documentos ou responde perguntas frequentes, por exemplo, tende a operar dentro de um ambiente relativamente controlado. Mas o cenário muda completamente quando falamos de processos organizacionais de ponta a ponta.
Quando a IA passa a atuar em fluxos completos, que envolvem múltiplas etapas, regras de negócio, exceções e impacto direto em decisões, o nível de exigência sobe. Não basta mais “funcionar”, é preciso garantir que cada etapa esteja alinhada às políticas da empresa, que as decisões sejam verificáveis e que exista controle sobre o que está sendo executado. Sem isso, o ganho de eficiência pode rapidamente se transformar em risco operacional.
Orquestração, nesse contexto, não é apenas organizar tarefas, é criar uma camada de governança sobre a atuação da IA, é definir como ela executa, em que sequência, com quais validações e sob quais regras, e é garantir que o resultado final não seja apenas rápido, mas confiável.
Orquestração implica validação contínua
Cada ação da IA precisa ser verificável dentro de parâmetros definidos, isso significa implementar “guardrails”, assegurando que o processo siga dentro dos padrões esperados. Não se trata de limitar a IA, mas de direcioná-la e de garantir que ela opere com autonomia, mas dentro de um contexto controlado.
Um exemplo simples: imagine o processo de auditoria de despesas corporativas com base em uma política de viagens. Tradicionalmente, isso exige análise manual, conferência de recibos e interpretação das regras. Com IA, é possível estruturar automaticamente os dados desses recibos e compará-los com a política da empresa. Mas sem orquestração, esse processo pode gerar inconsistências, como interpretações erradas de regras, exceções mal tratadas ou decisões sem rastreabilidade.
Com orquestração e validação, o cenário muda completamente
A IA não apenas executa tarefas, mas passa a operar dentro de um fluxo estruturado, onde cada etapa é definida, cada decisão pode ser auditada e cada resultado é validado contra critérios claros. Nesse modelo, o próprio processo, com suas regras e políticas, se torna a lógica que guia a execução.
Esse processo abre espaço para algo maior do que automação, estamos falando de uma nova forma de desenhar o trabalho. Em vez de processos documentados que dependem de interpretação humana, passamos a ter processos estruturados que são, ao mesmo tempo, documentação e execução. A operação deixa de ser apenas seguida e passa a ser orquestrada.
Esse é o ponto de virada
A discussão sobre IA nas empresas não pode mais se limitar ao “onde usar”, mas precisa evoluir para “como governar”, porque o desafio real não é implementar inteligência artificial, é garantir que ela opere com consistência, segurança e alinhamento ao negócio.
IA sem orquestração pode até funcionar em pequena escala, mas quando inserida em processos reais, ela amplifica não só eficiência, mas também erros.
Fernando Baldin é Country Manager LATAM na AutomationEdge, com mais de 25 anos de experiência nas áreas de Gerência Comercial, Recursos Humanos, Inovação e Operações. Ao longo de sua trajetória, liderou iniciativas estratégicas de transformação organizacional em empresas de grande porte. Conta com diversas certificações de alto nível, como ITIL V3 Expert, ITIL Manager e HDI KCS, além de atuar como membro do conselho consultivo estratégico do Help Desk Institute.
Sobre a AutomationEdge
A AutomationEdge é fornecedora de soluções de Hyperautomação, Robotic Process Automation e IT Automation. Seu RPA inteligente, altamente avançado, reúne todos os recursos essenciais necessários para automação empresarial, como inteligência artificial, machine learning, chatbot, ETL, integrações de API prontas e automação de TI.