Notícies sobre IA i ciberseguretat

"Google llança una nova eina d'IA per detectar imatges falses i combatre els deepfakes"

01/08/2024

Google ha presentat recentment una eina innovadora que promet revolucionar la manera en què es detecten les imatges falses i els deepfakes a internet. Aquesta eina, que forma part de l'esforç continu de la companyia per combatre la desinformació, es basa en l'ús d'intel·ligència artificial per identificar imatges generades o manipulades per IA, especialment aquelles que poden ser utilitzades per enganyar o manipular l'opinió pública.

L'eina, coneguda com a SynthID, introdueix una tecnologia de marca d'aigua digital que es pot incrustar directament en els píxels d'una imatge. Aquesta marca d'aigua és imperceptible per a l'ull humà, però permet que la imatge sigui identificada com a creada per IA fins i tot després de ser modificada o comprimida. Això ofereix una forma robusta de verificar l'autenticitat de les imatges en un entorn on la manipulació digital és cada cop més sofisticada​ (Google DeepMind)​ (blog.google).

Aquesta tecnologia és especialment rellevant en un moment en què les notícies falses i les imatges manipulades s'han convertit en una preocupació global. Google ha dissenyat SynthID per treballar amb altres eines de verificació, com la metadada d'imatges, per oferir una solució completa per a periodistes, investigadors i qualsevol persona que vulgui assegurar-se que les imatges que utilitza són autèntiques​ (blog.google).

La Intel·ligència Artificial: Multiplicació d'Opcions i Amenaces en la Ciberseguretat

29/07/2024

En un món digital cada vegada més complex, la intel·ligència artificial (IA) ha esdevingut un aliat poderós en la lluita contra les amenaces cibernètiques. L'ús d'IA en ciberseguretat permet la detecció de patrons sospitosos i la resposta ràpida a atacs, transformant significativament la manera com les empreses protegeixen les seves dades i sistemes. Aquestes tecnologies basades en l'IA no només ajuden a prevenir els ciberatacs, sinó que també optimitzen els processos de detecció i resposta, millorant la velocitat i eficàcia de les operacions de seguretat​ (Infosec Institute)​ (TeamViewer).

No obstant això, l'ús d'IA també presenta nous reptes. Els delinqüents cibernètics han començat a utilitzar aquestes mateixes tecnologies per crear atacs més sofisticats i difícils de detectar. Per exemple, les tècniques de deepfake i la generació de dades sintètiques han permès als atacants enganyar sistemes i persones amb continguts falsos però altament convincents. Aquestes noves formes d'atac plantegen un desafiament significatiu per als equips de seguretat, que han d'adaptar-se ràpidament per mantenir-se per davant de les noves amenaces​ (Home | ISC2).

Alhora, la IA també està revolucionant la ciberseguretat a través de l'automatització de tasques crítiques, com l'escaneig de vulnerabilitats i la gestió de pedaços, la qual cosa permet als equips de seguretat centrar-se en iniciatives més estratègiques. A més, l'ús d'IA en la recopilació i anàlisi de dades d'intel·ligència de amenaces ofereix una visió més completa i proactiva dels riscos emergents, permetent una millor planificació i protecció abans que es produeixin atacs​(TeamViewer)​ (Home | ISC2).

En resum, mentre que la IA ofereix avenços significatius en la defensa cibernètica, també crea noves vulnerabilitats que cal gestionar amb solvència tecnològica.

La intel·ligència artificial davant el cibercrim: un desafiament del 2024

27/07/2024

Amb l'avenç accelerat de la tecnologia, la intel·ligència artificial (IA) s'ha convertit en una arma de doble tall en el camp de la ciberseguretat. Si bé aporta eines poderoses per a la defensa cibernètica, també és utilitzada pels delinqüents per a crear atacs més sofisticats i difícils de detectar.

La IA pot analitzar grans volums de dades en temps real per detectar anomalies i patrons sospitosos que podrien indicar un atac cibernètic. Aquestes capacitats permeten una resposta més ràpida i efectiva davant de les amenaces. La integració de models de llenguatge especialitzats en ciberseguretat pot proporcionar informació detallada i accions concretes per adaptar-se ràpidament als nous tipus d'amenaces​ (World Economic Forum)​​ (World Economic Forum)​.

Els ciberdelinqüents també fan servir IA per a perfeccionar els seus atacs. L'ús de models generatius d'IA permet crear correus electrònics de phishing molt personalitzats i difícils de detectar. A més, la creació de deepfakes pot ser utilitzada per suplantar identitats i enganyar als empleats per accedir a informació sensible. La IA també permet la realització d'atacs automatitzats a gran escala amb una precisió i rapidesa mai vistes abans​ (ISACA)​​ (Quorum Cyber)​.

Per combatre aquestes noves amenaces, les organitzacions han d'adoptar tecnologies de ciberseguretat basades en IA que poden respondre en temps real i adaptar-se contínuament. L'ús de l'anàlisi comportamental permet identificar desviacions en el comportament habitual dels usuaris, detectant possibles amenaces abans que es converteixin en incidents majors. A més, l'arquitectura de confiança zero reforçada per IA es convertirà en una pràctica estàndard per assegurar que cap accés sigui atorgat sense una verificació rigorosa​ (Unite.AI)​.

En resum, la IA té el potencial de revolucionar la ciberseguretat, però també presenta nous desafiaments que requereixen una vigilància constant i la implementació de tecnologies avançades. La clau està en l'equilibri entre la innovació tecnològica i la seguretat, assegurant que les eines d'IA siguin utilitzades de manera responsable per protegir les dades i els sistemes davant de les creixents amenaces cibernètiques.

La intel·ligència artificial generativa: una nova arma de doble tall en la ciberseguretat

03/07/2024

La intel·ligència artificial (IA) generativa està revolucionant diversos sectors, des de la creació artística fins al desenvolupament de productes. La seva capacitat per crear contingut nou a partir de dades existents obre un món de possibilitats, però també planteja nous reptes en el panorama de la ciberseguretat. Els ciberdelinqüents ja estan explotant la IA generativa per crear atacs informàtics més sofisticats i difícils de detectar. Un dels mètodes més comuns és la creació de correus electrònics de phishing més convincents, que semblen provenir de fonts legítimes com ara bancs o empreses de comerç electrònic. Això pot enganyar els usuaris perquè revelin dades personals o facin clic en enllaços maliciosos (pots trobar més informació sobre el phishing a https://www.eset.com/us/business/resource-center/).

Un altre perill són els deepfakes, vídeos manipulats que poden fer que algú digui o faci coses que en realitat no ha dit ni fet. Els deepfakes es poden utilitzar per difondre informació falsa, danyar la reputació d'una persona o fins i tot per suplantar la seva identitat. Per aprendre a detectar deepfakes, pots consultar aquest article de SANS Institute https://www.sans.org/newsletters/ouch/learn-a-new-survival-skill-spotting-deepfakes/.

A més, la IA pot automatitzar atacs informàtics, com ara la generació de contrasenyes fortes i la seva prova en milers de comptes fins a trobar-ne una que funcioni.

Aquests riscos evidencien la necessitat de prendre mesures per protegir-se dels ciberatacs que utilitzen IA generativa.

És crucial estar atent als correus electrònics de phishing, ser crític amb la informació en línia, utilitzar contrasenyes fortes i úniques, mantenir el programari actualitzat i instal·lar un antivirus i antispyware.

A més, és important estar informat sobre les últimes amenaces cibernétiques i seguir les recomanacions de fonts de ciberseguretat fiables com ara l'INCIBE (Institut Nacional de Ciberseguretat) https://www.incibe.es/incibe-cert/guias-y-estudios/guias.

La IA generativa és una tecnologia poderosa amb un gran potencial, però hem de ser conscients dels seus riscos per poder aprofitar els seus beneficis de manera segura.

En definitiva, la ciberseguretat en l'era de la IA generativa requereix una combinació d'eines tecnològiques, consciència individual i col·laboració entre experts i usuaris per afrontar els nous reptes que planteja aquesta tecnologia.


La intel·ligència artificial obre reptes i oportunitats en seguretat

19/07/2024

La intel·ligència artificial (IA) presenta grans oportunitats en l'àmbit de la ciberseguretat, però també comporta importants reptes. D'una banda, ofereix eines avançades per detectar, prevenir i respondre a ciberatacs amb una velocitat i precisió sense precedents. Per exemple, la IA pot ajudar a identificar amenaces a través de la correlació i classificació de grans volums de dades, cosa que els equips humans podrien passar per alt. També és capaç de detectar patrons de comportament maliciós i oferir una resposta ràpida als incidents de seguretat​ (Foro Económico Mundial)​​ (ESET Security Community)​.

No obstant això, els cibercriminals també estan aprofitant la IA per millorar els seus atacs. Els hackers poden utilitzar la IA per crear missatges de phishing altament personalitzats o deepfakes que poden enganyar fins i tot als empleats més vigilants. A més, els sistemes de IA poden ser vulnerables a dades esbiaixades, la qual cosa pot provocar decisions incorrectes o discriminatòries. És crucial assegurar-se que els sistemes de IA es desenvolupen i s'utilitzen de manera responsable, amb una supervisió humana adequada per prendre decisions crítiques​ (Foro Económico Mundial)​​(MetaCompliance)​.

La implementació d'una IA segura requereix una adequada gestió dels riscos i el compliment estricte de les regulacions existents. És essencial que les organitzacions treballin amb professionals de la ciberseguretat amb experiència en sistemes de IA i que mantinguin polítiques i procediments sòlids per regular el seu ús. A més, la col·laboració entre sectors i la formació contínua dels empleats són claus per garantir una adopció segura i efectiva de la IA en ciberseguretat​ (ESET Security Community)​​ (MetaCompliance)​.

Les Estafes amb Veus Clonades per IA: Un Nou Repte per a la Seguretat

8/07/2024

Les estafes amb veus clonades per intel·ligència artificial (IA) estan esdevenint una amenaça creixent i cada vegada més sofisticada. Els ciberdelinqüents utilitzen tecnologies d'IA per replicar les veus de familiars, amics o companys de feina de les víctimes, amb l'objectiu d'enganyar-les i obtenir informació sensible o diners. Aquesta nova modalitat de frau, coneguda com a "deep fake de veu", implica l'ús d'algoritmes avançats d'IA per analitzar gravacions de veu i recrear-les amb un alt grau de precisió. Només es necessiten uns pocs segons d'àudio per generar una veu clonada que sembli realista, cosa que permet als delinqüents deixar missatges de veu falsos o fer trucades telefòniques enganyoses​ (McAfee)​​(Computer Hoy)​.

Els estafadors solen utilitzar aquesta tècnica per simular situacions d'emergència o de necessitat urgent de diners. Per exemple, poden fer-se passar per un familiar que ha tingut un accident i necessita diners immediatament per a tractament mèdic. Aquestes trucades solen ser molt convincents i emocionals, fent que les víctimes actuïn ràpidament sense verificar la informació​ (infobae)​​ (Factchequeado)​. Els estafadors poden obtenir les gravacions de veu necessàries de diverses fonts, incloent vídeos en xarxes socials, missatges de veu en aplicacions de missatgeria i fins i tot trucades telefòniques anteriors. Amb aquestes dades, l'IA pot analitzar els matisos de la veu, com el to, la velocitat i els patrons d'entonació, per crear una imitació gairebé perfecta​ (Computer Hoy)​​ (Factchequeado)​.

Per protegir-se contra aquest tipus d'estafes, és important seguir algunes recomanacions. Verificar la identitat de la persona que sol·licita diners o informació personal mitjançant un altre mitjà de contacte, com una videotrucada o preguntes específiques que només la persona real podria respondre, és essencial. Limitar la quantitat d'informació personal que es comparteix en línia, especialment en xarxes socials, pot prevenir que els estafadors tinguin accés fàcil a les gravacions de veu necessàries. Les empreses també haurien d'establir protocols de verificació estrictes per a transaccions importants i capacitar els empleats per reconèixer les senyals de frau, com l'ús de contrasenyes o autoritzacions escrites per a transferències significatives​ (infobae)​​ (Factchequeado)​.

En resum, la clonació de veus per IA és una tècnica d'estafa emergent que requereix una major consciència i precaució per part de tothom. La millor defensa és la prevenció i la verificació rigorosa de qualsevol sol·licitud sospitosa. Per més informació, pots consultar les següents fonts: McAfee: Suplantación de identidad: la clonación de voz por IA para una nueva clase de estafa

Neural Labs de Cerdanyola Porta la IA a les Càmeres de Seguretat a Mèxic

12/07/2024

L'empresa tecnològica Neural Labs, situada a Cerdanyola del Vallès, ha centrat els seus esforços en l'expansió cap a Mèxic, aplicant la seva innovadora tecnologia de intel·ligència artificial (IA) a les càmeres de seguretat. Fundada fa gairebé vint anys per Elías Valcárcel, Neural Labs s'ha especialitzat en solucions de seguretat, logística, gestió del trànsit i control d'accessos mitjançant l'ús de tecnologies de deep learning, xarxes neuronals i visió per computador.

Neural Labs ha desenvolupat la càmera Neural Ghost AI, que destaca per la seva capacitat de funcionar sota condicions climàtiques adverses gràcies al seu certificat d'impermeabilitat IP67. A més, aquestes càmeres tenen acceleradors d'IA per a deep learning, permetent el reconeixement de matrícules, models, colors i velocitats de vehicles de manera molt precisa. Aquestes càmeres són utilitzades no només per a la seguretat del trànsit, sinó també per a la vigilància de la criminalitat en diferents països​ (Revista Innovación Seguridad)​​ (Emprendedores)​.

L'empresa ha experimentat un fort creixement a Amèrica Llatina, especialment a Mèxic, Colòmbia, Xile, Argentina, Equador i Brasil. Això es deu a la creixent demanda de solucions de seguretat que utilitzen IA per millorar l'eficiència en la vigilància i la gestió del trànsit. A més, Neural Labs està implementant els seus projectes en els estats de Tabasco i Baja California Sur a Mèxic, on les seves tecnologies ajuden a reduir la delinqüència i millorar la mobilitat urbana​(Emprendedores)​​ (Expansión)​.

En resum, l'expansió de Neural Labs a Mèxic és un exemple de com les empreses catalanes estan liderant en el camp de la tecnologia de seguretat, utilitzant IA per crear solucions més segures i eficients. Aquesta expansió també posa de manifest la capacitat de la tecnologia espanyola per competir en mercats internacionals, aportant innovacions que aborden alguns dels problemes més urgents de les nostres ciutats.