Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Governos, empresas e reguladores têm de trabalhar em conjunto para desenvolver mecanismos de segurança robustos para a IA, alerta Check Point Research

Governos, empresas e reguladores têm de trabalhar em conjunto para desenvolver mecanismos de segurança robustos para a IA, alerta Check Point Research
Share it:
Governos, empresas e reguladores têm de trabalhar em conjunto para desenvolver mecanismos de segurança robustos para a IA, alerta Check Point Research

A utilização indevida da IA tem sido amplamente divulgada nos meios de comunicação social, com relatos relativos ao ChatGPT ser aproveitado pelos cibercriminosos para contribuir para a criação de malware.

A Check Point Research (CPR), o braço de Threat Intelligence da Check Point® Software Technologies Ltd. (NASDAQ: CHKP) e fornecedor líder de soluções de cibersegurança a nível mundial, alerta para o facto de a inteligência artificial ter o potencial de ser uma tecnologia transformadora que pode ter um impacto significativo na nossa vida quotidiana, mas apenas com proibições e regulamentos adequados para garantir que é utilizada e desenvolvida de forma ética e responsável.

"A IA já demonstrou o seu potencial e tem a possibilidade de revolucionar muitas áreas, como os cuidados de saúde, as finanças, os transportes e outras. Pode automatizar tarefas aborrecidas, aumentar a eficiência e fornecer informações que anteriormente não eram possíveis. A IA pode também ajudar-nos a resolver problemas complexos, a tomar melhores decisões, a reduzir o erro humano ou a enfrentar tarefas perigosas, como desativar uma bomba, voar para o espaço ou explorar os oceanos. Mas, ao mesmo tempo, assistimos a uma utilização maciça das tecnologias de IA também para desenvolver ciberameaças", afirma Rui Duro, Country Manager da Check Point Software Technologies em Portugal. Esta utilização indevida da IA tem sido amplamente divulgada nos meios de comunicação social, com relatos relativos ao ChatGPT ser aproveitado pelos cibercriminosos para contribuir para a criação de malware.

De um modo geral, o desenvolvimento da IA não é apenas mais uma moda passageira, mas resta saber qual o impacto positivo ou negativo que terá na sociedade. E embora a IA já exista há muito tempo, 2023 será recordado pelo público como o "Ano da IA". No entanto, continua a haver muito entusiasmo em torno desta tecnologia e algumas empresas podem estar a exagerar. Precisamos de ter expectativas realistas e não ver a IA como uma solução automática para todos os problemas do mundo.

É frequente ouvirmos preocupações sobre se a IA se aproximará ou mesmo ultrapassará as capacidades humanas. É difícil prever o seu grau de avanço, mas já existem várias categorias. A IA atual é designada por IA estreita ou "fraca" (ANI - Artificial Narrow Intelligence). A IA geral (AGI - Artificial General Intelligence) deverá funcionar como o cérebro humano, pensando, aprendendo e resolvendo tarefas como um ser humano. A última categoria é a Super Inteligência Artificial (ASI) e consiste basicamente em máquinas mais inteligentes do que nós.

Se a inteligência artificial atingir o nível de AGI, existe o risco de poder atuar por si própria e tornar-se uma ameaça para a humanidade. Por conseguinte, temos de trabalhar no sentido de alinhar os objectivos e valores da IA com os dos seres humanos.

"Para mitigar os riscos associados à IA avançada, é importante que os governos, as empresas e os reguladores trabalhem em conjunto para desenvolver mecanismos de segurança robustos, estabelecer princípios éticos e promover a transparência e a responsabilidade no seu desenvolvimento. Atualmente, existe um mínimo de regras e regulamentos. Existem propostas como a Lei da IA, mas nenhuma delas foi aprovada e, essencialmente, tudo até agora é regido pelas bússolas éticas dos utilizadores e dos criadores. Dependendo do tipo de IA, as empresas que desenvolvem e lançam sistemas de IA devem garantir, pelo menos, normas mínimas como a privacidade, a justiça, a explicabilidade ou a acessibilidade", acrescenta Rui Duro.

Infelizmente, a IA também pode ser utilizada pelos cibercriminosos para aperfeiçoar os seus ataques, identificar automaticamente vulnerabilidades, criar campanhas de phishing direcionadas, fazer engenharia social ou criar malware avançado que pode alterar o seu código para melhor escapar à deteção. A IA também pode ser utilizada para gerar deepfakes de áudio e vídeo convincentes que possam ser utilizados para manipulação política, provas falsas em julgamentos criminais ou para enganar os utilizadores para que paguem dinheiro.

Mas a IA é também uma ajuda importante na defesa contra ciberataques em particular. Por exemplo, a Check Point utiliza mais de 70 ferramentas diferentes para analisar ameaças e proteger contra ataques, mais de 40 das quais são baseadas em IA. Estas tecnologias ajudam na análise comportamental, analisando grandes quantidades de dados de ameaças de uma variedade de fontes, incluindo a darknet, facilitando a deteção de vulnerabilidades Zero Day ou a automatização da correção de vulnerabilidades de segurança.

"Recentemente, foram também discutidas várias proibições e restrições à IA. No caso do ChatGPT, as preocupações estão principalmente relacionadas com a privacidade, uma vez que já vimos fugas de dados, e o limite de idade dos utilizadores também não é abordado. No entanto, o bloqueio de serviços semelhantes tem apenas um efeito limitado, uma vez que qualquer utilizador um pouco mais experiente pode contornar a proibição utilizando uma VPN, por exemplo, e existe também um comércio intenso de contas premium roubadas. O problema é que a maioria dos utilizadores não se apercebe de que as informações sensíveis introduzidas no ChatGPT serão muito valiosas se forem divulgadas, podendo ser utilizadas para fins de marketing direcionado. Estamos a falar de uma potencial manipulação social a uma escala nunca vista", salienta Rui Duro.

O impacto da IA na nossa sociedade dependerá da forma como optarmos por desenvolver e utilizar esta tecnologia. Será importante ponderar os potenciais benefícios e riscos, procurando simultaneamente assegurar que a IA seja desenvolvida de forma responsável, ética e benéfica para a sociedade.
Share it:

info

Post A Comment:

0 comments: