Notícies sobre IA i política.

Europa obliga a identificar els continguts generats amb IA

La Unió Europea ha establert una nova normativa que exigeix la identificació clara dels continguts creats amb intel·ligència artificial (IA), amb l'objectiu de combatre la desinformació i protegir els drets dels usuaris. Aquesta regulació, que forma part de la nova Llei de Serveis Digitals, busca garantir que els ciutadans siguin conscients de quan interactuen amb continguts generats per IA, especialment en casos com els 'deepfakes' i altres formes de desinformació digital. La normativa s'implementarà de manera gradual, amb mesures completes previstes per a l'agost de 2027, i inclou sancions severes per a les plataformes que no compleixin amb els requisits establerts​ (El País)​ (El País).

Un dels aspectes més rellevants d'aquesta llei és l'obligació per a les plataformes digitals d'identificar i etiquetar clarament els continguts generats per IA, especialment aquells que poden suposar un risc per a la integritat dels processos democràtics, com les eleccions. La Comissió Europea ha subratllat la importància de reforçar els procediments interns de les plataformes per prevenir la difusió de continguts manipulats i assegurar-se que els usuaris puguin reconèixer quan estan interactuant amb materials generats per IA​ (Diario Libre).

Aquestes mesures reflecteixen l'esforç de la UE per liderar la regulació de la tecnologia d'IA a nivell global, promovent un ús responsable i ètic que protegeixi els drets fonamentals i la democràcia. Així, la UE no només busca regular la tecnologia, sinó també establir un precedent a nivell mundial en la protecció contra els riscos associats a la IA​ (Junior Report).

La proposta d'un impost sobre la IA: Un debat sobre l'impacte i les polítiques fiscals

27/07/2024

La idea d'implementar un impost sobre la intel·ligència artificial (IA) està guanyant força en diversos cercles acadèmics i polítics. Aquest impost es proposa com una manera de mitigar els efectes negatius de la IA en el mercat laboral, especialment en termes de desplaçament de llocs de treball. La història ha demostrat que les tecnologies disruptives, com la màquina de vapor o els ordinadors, tenen un impacte profund en la societat, i la IA no és una excepció​ (IMF)​ (IMF).

Un dels arguments principals a favor de l'impost és que podria ajudar a finançar programes de reentrenament i suport per als treballadors afectats per l'automatització. Segons un informe del FMI, la IA podria afectar fins a un 60% dels llocs de treball en les economies avançades, desplaçant molts treballadors. Un impost sobre la IA permetria recaptar fons per a programes que ajudin aquests treballadors a adquirir noves habilitats i a adaptar-se a nous rols laborals​ (IMF).

No obstant això, hi ha una preocupació que un impost sobre la IA podria desincentivar la innovació i la inversió en aquesta tecnologia. Un informe recent suggereix que, si bé un impost podria ajudar a mitigar les desigualtats derivades de la IA, també podria frenar els avenços en productivitat i dificultar la implementació de tecnologies avançades. És per això que alguns experts proposen alternatives, com ara la millora dels sistemes educatius i la creació de marcs reguladors flexibles que permetin una transició més suau cap a una economia impulsada per la IA​ (IMF)​ (mgd).

Meta Ajorna l'Estrena de la seva Nova IA a la UE

24/07/2024

Meta, l'empresa matriu de Facebook, Instagram i WhatsApp, ha decidit ajornar el llançament dels seus nous models d'intel·ligència artificial (IA) a la Unió Europea (UE) a causa de preocupacions regulatòries. Aquesta decisió arriba en un moment en què les regulacions tecnològiques a la UE estan en constant evolució, fent difícil per a les empreses tecnològiques nord-americanes complir amb els requisits legals​ (Tech Xplore)​​ (The Brussels Times)​.

La companyia ha indicat que la naturalesa imprevisible de l'entorn regulador europeu és la principal raó darrere d'aquesta decisió. En particular, Meta té problemes amb la UE a causa de la necessitat d'utilitzar dades dels seus usuaris per continuar entrenant els seus models d'IA. Aquest requisit ha provocat diverses denúncies i queixes per part de grups de defensa de la privacitat, com l'organització austríaca "None of Your Business" (NOYB), liderada per l'activista Max Schrems​ (Tech Xplore)​.

Aquesta situació ha portat Meta a ajornar el llançament de la seva IA multicanal, coneguda com Llama, que estava prevista per als propers mesos. La IA de Meta estava destinada a competir amb altres grans noms de la indústria, com ChatGPT d'OpenAI. No obstant això, sense la capacitat d'utilitzar dades locals dels usuaris europeus, Meta considera que els seus serveis d'IA no podrien oferir una experiència de qualitat comparable a la d'altres regions​ (Tech Xplore)​​ (The Brussels Times)​.

A més, altres grans empreses tecnològiques com Google també han tingut dificultats similars amb les regulacions de la UE, cosa que ha provocat retards en el llançament de les seves pròpies eines d'IA al continent. Aquestes regulacions inclouen el Reglament General de Protecció de Dades (GDPR) i l'Acta d'Intel·ligència Artificial, que busquen garantir la seguretat, transparència i no discriminació dels sistemes d'IA​ (Tech Xplore)​.

La Intel·ligència Artificial en la Guerra d'Ucraïna: Un Nou Paradigma

09/07/2024

La guerra entre Ucraïna i Rússia ha esdevingut un laboratori de nova tecnologia militar, amb l'ús intensiu de drons i intel·ligència artificial (IA) transformant completament el camp de batalla. Ucraïna, en particular, ha demostrat una gran habilitat per integrar aquestes tecnologies, aconseguint avanços significatius en la seva capacitat defensiva i ofensiva.

Els drons equipats amb IA han estat una peça clau en l'estratègia militar d'Ucraïna. Aquests drons poden operar de manera autònoma, despegant, aterrant i navegant sense la necessitat d'un pilot humà, utilitzant informació en temps real per esquivar obstacles i amenaces. Això ha permès als soldats ucraïnesos dur a terme missions de reconeixement i atacs amb una precisió i seguretat mai vistes abans​ (Nature)​​ (CNAS)​.

A més dels drons, Ucraïna està utilitzant tecnologia d'IA per analitzar grans volums de dades i detectar patrons que puguin ser utilitzats per predir moviments enemics o identificar vulnerabilitats en les defenses russes. Aquesta anàlisi de dades inclou l'ús d'algoritmes per processar informació de xarxes socials, imatges satel·litals i altres fonts, oferint als comandants militars una visió més completa i detallada del camp de batalla​ (National Defense Magazine)​.

L'ús d'IA també s'estén a la guerra cibernètica, on les tècniques de deepfake s'han utilitzat per difondre desinformació i crear confusió entre les tropes enemigues. A més, els sistemes de reconeixement facial equipats amb IA han permès a Ucraïna identificar objectius clau amb una precisió increïble, millorant l'eficàcia de les seves operacions militars​ (National Defense Magazine)​.

En resum, la integració de la intel·ligència artificial en la guerra d'Ucraïna no només ha canviat la manera en què es lluita, sinó que també ha establert un nou estàndard per als conflictes futurs. Aquestes tecnologies continuen evolucionant i, amb elles, les estratègies i tàctiques militars esdevenen cada cop més sofisticades i efectives​ (IMF)​.

El Papa Francesc demana la prohibició de les armes letals autònomes.

17/06/2024

En el marc de la cumbre del G7 celebrada a Borgo Egnazia, el Papa Francesc ha fet una intervenció històrica, convertint-se en el primer pontífex a participar en aquesta trobada de líders mundials. El tema central del seu discurs ha estat la preocupació per la intel·ligència artificial (IA) i les seves implicacions ètiques i socials.

Francesc ha denunciat enèrgicament l'ús d'armes autònomes letals, conegudes també com "robots assassins". Ha fet una crida als líders presents per prohibir aquestes tecnologies, argumentant que "cap màquina hauria de decidir mai posar fi a la vida d'un ésser humà". Aquesta demanda s'ha fet ressò en el context del conflicte en Gaza, on diverses organitzacions internacionals han denunciat l'ús d'aquest tipus d'armament per part d'Israel.

A més de les armes autònomes, el Papa ha expressat la seva preocupació per les altres conseqüències potencials de la IA. Ha subratllat que aquesta tecnologia podria incrementar les desigualtats entre nacions desenvolupades i en vies de desenvolupament, així com entre classes socials dominants i oprimides. "La intel·ligència artificial és un instrument fascinant i alhora aterridor", ha afirmat, ressaltant la necessitat d'una reflexió ètica profunda.

El Papa ha advocat per una regulació internacional que asseguri que la IA serveixi al bé comú i no exacerbi les desigualtats. Ha insistit que només si la IA es guia per una vocació al servei de la humanitat, els seus instruments tecnològics revelaran la seva grandesa i dignitat única.

Durant la seva estada a la cumbre, Francisco també ha mantingut reunions bilaterals amb diversos líders, incloent-hi el president dels Estats Units, Joe Biden, i el president d'Ucraïna, Volodímir Zelenski. Aquests encontres han permès discutir temes clau com la pau a Ucraïna i les conseqüències de l'agressió russa.

La intervenció del Papa a la cumbre del G7 ha estat un recordatori contundent de la importància de considerar les implicacions ètiques de la IA. Ha deixat clar que, per tal de construir un futur més just i humà, és essencial que les tecnologies emergents siguin regulades i gestionades amb responsabilitat.

Fonts: El periódico, Alfayomega.es, epe.es

El Papa Francesc i els Reptes de la Intel·ligència Artificial al G7

16/06/2024

Durant la cimera del G7, el Papa Francesc va abordar els reptes i oportunitats que presenta la intel·ligència artificial (IA) en el context global. Esdevenint el primer Papa en participar en aquesta trobada, Francesc va destacar la importància d'establir un marc ètic per al desenvolupament i ús de la IA, amb l'objectiu de garantir que serveixi al bé comú i no accentuï les desigualtats.

El Papa va alertar sobre els perills de la IA, com ara la possibilitat d'una "dictadura tecnològica" si no es regula adequadament. També va expressar preocupació per l'ús d'armes autònomes controlades per IA i la vigilància social, així com la manipulació de processos electorals. Segons Francesc, és essencial que la IA no esdevingui una eina per augmentar les desigualtats, sinó que treballi per millorar la vida de tots els éssers humans.

Des del 2020, el Vaticà, a través de la Pontifícia Acadèmia per la Vida, ha promogut la "Crida de Roma per a l'Ètica de la IA", un document que estableix principis com la transparència, la inclusió, la responsabilitat i la imparcialitat. Aquest document ha estat signat per grans empreses tecnològiques com Microsoft, IBM i Cisco Systems, així com per organitzacions internacionals i líders religiosos.

Durant la seva intervenció al G7, Francesc va instar els líders mundials a treballar conjuntament per regular la IA, advocant per un "tractat internacional vinculant" per prevenir pràctiques perjudicials i fomentar les millors. Aquesta crida s'alinea amb els esforços legislatius de la Unió Europea i els plans de regulació de la IA als Estats Units.

A més de les preocupacions ètiques, el Papa va assenyalar els riscos de deshumanització associats amb la IA, advertint que aquesta tecnologia podria exacerbar les desigualtats entre nacions i ser utilitzada per a la desinformació i el control social. Francesc va destacar la necessitat d'una "algor-ètica", la qual cosa implica una reflexió profunda sobre les implicacions morals dels algoritmes.

La seva participació en aquesta cimera subratlla la voluntat del Papa de situar l'Església en el centre dels debats sobre el futur tecnològic, assegurant que les noves tecnologies es desenvolupin de manera que beneficiïn tota la humanitat.

Fonts:CNN, La sexta, swissinfo.ch

Països europeus s’oposen a l’ús de les fotos de Facebook i Instagram per entrenar IA

14/05/2024

Noruega s’ha convertit en el primer país que es planta davant dels plans de Meta, l’empresa matriu de Facebook i Instagram, per utilitzar les imatges i publicacions dels seus usuaris per entrenar models d’intel·ligència artificial (IA). Aquesta decisió ha estat recolzada pel Consell Noruec del Consumidor, que ha habilitat un procediment perquè els usuaris puguin negar-se a aquest ús mitjançant un formulari complex.

Meta havia anunciat que a partir del 26 de juny reservaria el dret d’utilitzar el contingut dels usuaris per entrenar els seus models d’IA, incloent-hi les publicacions i imatges compartides per adults en Facebook i Instagram. Aquesta decisió es va comunicar a través d’una modificació dels termes de servei (TOS), que els usuaris havien d’acceptar o rebutjar explícitament. La reacció negativa dels usuaris i la preocupació per la privacitat han estat immediates.

La situació es va intensificar quan la Autoritat de Protecció de Dades irlandesa (DPC) va sol·licitar a Meta que pausés aquest projecte a tota la Unió Europea. Meta va accedir a aquesta petició, expressant la seva decepció i defensant la seva transparència comparada amb altres competidors. Meta va afirmar que aquesta pausa representa un retrocés per a la innovació europea i que limita els beneficis potencials de la IA per als ciutadans europeus.

La DPC, juntament amb altres autoritats de protecció de dades de la UE, ha estat treballant amb Meta des de març per assegurar que les pràctiques de l’empresa compleixin amb les normatives europees. Malgrat això, Meta ha destacat que sense incloure informació local, la seva IA no podria oferir la mateixa qualitat de servei que en altres regions del món.

Els usuaris de Facebook i Instagram van rebre notificacions sobre aquests canvis i es van generar nombroses publicacions a les xarxes socials expressant el seu rebuig. Organitzacions de protecció de dades i advocats de privacitat de tota Europa van denunciar les pràctiques de Meta, afirmant que els procediments per oposar-s’hi eren deliberadament complicats i costosos.

Max Schrems, president de Noyb, una de les organitzacions que va denunciar aquestes pràctiques, va acollir amb satisfacció la decisió de Meta però va advertir que vigilarien de prop qualsevol canvi en la política de privacitat de l’empresa. Schrems va destacar que encara no s’ha produït cap canvi oficial en la política de privacitat de Meta que faci aquest compromís jurídicament vinculant.

En resum, la controvèrsia entre Meta i les autoritats europees posa de manifest la importància de la transparència i el respecte a la privacitat en el desenvolupament de tecnologies avançades com la IA. Les decisions preses en aquest àmbit tindran un impacte significatiu en la manera com les empreses tecnològiques gestionen les dades dels usuaris i en la protecció dels drets de privacitat a nivell mundial.

Fonts: La Vanguardia, El País, Eldiario.es

Retrobament històric a Bletchley Park per debatre els reptes de la intel·ligència artificial.

nov. 3, 2023

El passat dimecres dia 1 de novebre de 2023 va començar al Regne Unit la primera cimera mundial sobre els riscos de la intel·ligència artificial (IA), reunint a Bletchley Park (la mansió on Allan Turing i el seu equip va desxifrar el codi de les màquines enigma utilitzat per l’Alemanya de Hitler durant la segona guerra mundial) dirigents polítics, gegants tecnològics i experts per debatre els perills d’aquesta tecnologia.

La vicepresidenta dels EUA, Kamala Harris, va anunciar la creació d’un institut sobre seguretat de la IA a Washington per establir directrius i identificar i mitigar els riscos. Representants de Silicon Valley com Elon Musk de OpenAI també hi participen.

Els sistemes d’IA generativa com ChatGPT, capaços de produir textos, sons o imatges ràpidament, han avançat molt i els pròxims models sortiran aviat. Això genera esperances en medicina o educació, però també por a desestabilitzar societats o escapar al control humà. Alguns pares de la IA demanen un tractat internacional per reduir riscos “catastròfics”.

El govern britànic vol almenys una primera declaració internacional sobre la naturalesa dels riscos i un grup d’analistes inspirat en el IPCC del canvi climàtic. El repte és definir salvaguardies sense entorpir la innovació. La UE i EUA opten per regulació, amb Biden anunciant normes per marcar el camí globalment. Algunes empreses com OpenAI accepten fer públiques regles de seguretat.

Avui dijous han participat líders com Von der Leyen i Guterres. La Xina, malgrat la tensió sobre espionatge, també hi és present. Però ONGs critiquen que la cimera sigui a porta tancada, dominada per gegants tecnològics. Cal evitar que només siguin les empreses amb ànim de lucre les propietàries de sistemes transformadors, diuen experts de Harvard.

En resum, la cimera vol abordar els riscos de la IA de forma global, però s’enfronta a reptes per trobar acords sense entorpir la innovació i amb prou participació i transparència. El futur d’aquesta tecnologia disruptiva està en joc.

Cap a un Model Europeu d'Intel·ligència Artificial

05/06/2024

En els darrers mesos, Europa ha intensificat els seus esforços per desenvolupar un model propi d'intel·ligència artificial (IA) que sigui públic, lliure i obert. Aquesta iniciativa busca contrarestar el domini dels sistemes d'IA desenvolupats per empreses privades dels Estats Units, que sovint operen com a caixes negres amb biaixos i preocupacions sobre la privacitat i la legalitat.

El 30 de novembre del 2022, l'empresa OpenAI va presentar el seu famós ChatGPT. Aquest esdeveniment va marcar un punt d'inflexió en la percepció pública i professional de la IA, demostrant el potencial transformador d'aquesta tecnologia en múltiples sectors. En només quinze mesos, hem vist com la IA ha començat a integrar-se en eines quotidianes com processadors de textos, fulls de càlcul i presentacions [La Vanguardia]

Amb el lideratge del Barcelona Supercomputing Center, Europa està treballant per crear un model d'IA que sigui més transparent i ètic. Aquest model permetrà als usuaris saber com s'entrena la IA, influir en la seva evolució i combatre els biaixos que puguin sorgir. Aquesta transparència oferirà un avantatge competitiu al teixit productiu europeu, proporcionant una alternativa viable als sistemes tancats dels Estats Units [CCCB]

El Centre de Cultura Contemporània de Barcelona (CCCB) també ha abordat aquesta qüestió a través de l'exposició "IA: Intel·ligència artificial", que examina com les dades alimenten els sistemes d'IA i els possibles impactes en la privacitat i els biaixos socials. L'exposició subratlla la importància de comprendre i gestionar aquestes tecnologies per evitar que perpetuïn o amplifiquin les desigualtats existents [CCCB]

El desenvolupament d'un model europeu d'IA no només és una qüestió tècnica, sinó també política. Els governs europeus hauran de prioritzar la compra de solucions basades en aquest model per fomentar-ne l'adopció i garantir que les noves tecnologies respectin els valors i les normatives europees. Aquesta estratègia podria posicionar Europa com un líder global en la creació d'una IA més ètica i responsable [La Vanguardia]

En resum, Europa veu en el desenvolupament d'un model propi d'IA una oportunitat per liderar el camí cap a una tecnologia més oberta, transparent i alineada amb els seus valors socials i ètics.

Fonts: La Vanguardia, CCCB

La IA en la gestió dels riscos geopolítics en una economia globalitzada

15/07/2024

En l'actual context geopolític, la intel·ligència artificial (IA) esdevé una eina fonamental per gestionar i mitigar els riscos associats a la globalització i la interdependència econòmica. Els conflictes geopolítics, com la guerra a Ucraïna, han posat de manifest la necessitat d'estratègies més sofisticades per fer front a les disrupcions en les cadenes de subministrament i en l'economia mundial.

La IA permet a les empreses anticipar i planificar aquestes disrupcions geopolítiques mitjançant l'anàlisi de grans quantitats de dades i la creació de models predictius que ajuden a identificar patrons de risc i a desenvolupar respostes proactives. Per exemple, la capacitat de la IA per gestionar relacions complexes i no lineals entre múltiples variables fa que sigui una eina ideal per predir l'impacte de les tensions geopolítiques en els mercats globals​ (EY Building Better World)​​ (OpenMind)​.

En aquest sentit, les empreses globals han d'integrar l'ús de la IA en les seves estratègies per gestionar el risc geopolític. Això implica l'anàlisi de diferents escenaris i la creació de plans de contingència que puguin ser implementats ràpidament en cas de crisi. A més, la IA pot ajudar a millorar la resiliència de les cadenes de subministrament, permetent una major transparència i seguiment de la càrrega, així com la diversificació de les rutes comercials per evitar punts crítics vulnerables a atacs o interferències​ (McKinsey & Company)​​ (Diario de Transporte)​.

La gestió dels riscos geopolítics amb IA també requereix una col·laboració estreta entre els equips jurídics, de relacions corporatives i de tecnologia de les empreses, assegurant que les decisions es prenguin sobre la base de dades fiables i actualitzades. Així mateix, és essencial que els consells d'administració tinguin una visió clara dels riscos geopolítics i desenvolupin estratègies per abordar-los de manera efectiva i sostenible a llarg termini​ (McKinsey & Company)​.

En resum, la IA ofereix a les empreses una eina poderosa per navegar pels riscos geopolítics en una economia globalitzada, millorant la seva capacitat per anticipar-se a les crisis i respondre de manera eficient i efectiva.

Els reptes de la regulació de la IA a Europa: Equilibri entre innovació i seguretat

20/07/2024

En un escenari d'avenços tecnològics constants, Europa s'enfronta a importants desafiaments per regular l'ús de la intel·ligència artificial (IA) de manera efectiva i segura. Tot i els esforços per establir un marc regulador comú, hi ha diversos aspectes que encara cal abordar per garantir la competitivitat i la seguretat en un entorn digital global.

El Reglament Europeu d'Intel·ligència Artificial, també conegut com l'AI Act, és un pas significatiu per establir normes harmonitzades sobre la IA. Aquest reglament pretén crear un equilibri entre fomentar la innovació i assegurar que l'ús de la IA sigui ètic i respectuós amb els drets fonamentals. La regulació proposa diferents nivells de risc per als sistemes de IA, classificant-los en prohibits, d'alt risc i de risc limitat, i imposa requisits específics per garantir la seguretat i la transparència en el seu ús​ (KPMG)​​ (Garrigues)​.

A més de la regulació específica per a la IA, hi ha un complex marc normatiu que inclou la protecció de dades, la ciberseguretat i la sostenibilitat. Això planteja reptes addicionals per a les empreses, que han d'implementar mecanismes de gestió de riscos i complir amb diverses normatives sectorials​ (Garrigues)​​ (Liberties EU)​.

Els experts assenyalen que un dels principals desafiaments és assegurar que la regulació sigui flexible i adaptable a l'alta velocitat de la innovació tecnològica. La interacció entre diferents normatives i la necessitat de garantir la seguretat jurídica i la competitivitat són aspectes clau per avançar cap a una economia digital més segura i eficient​ (Garrigues)​.

En conclusió, la regulació digital a Europa es troba en una fase crucial, amb importants desafiaments per davant. És essencial trobar l'equilibri adequat per fomentar la innovació tecnològica mentre es protegeixen els drets fonamentals i es manté la competitivitat de les empreses europees en l'escena global​ (Liberties EU)​​ (Líder Legal)​.