El que està per arribar amb la IA: Anuncis, confiança i un nou repte en ciberseguretat

12 February 2026 GuardianHubX

Durant anys, ChatGPT ha estat percebut com una eina neutral: un assistent intel·ligent, sense interessos comercials visibles i amb un accés gratuït que va accelerar l’adopció massiva de la tecnologia. Aquest model comença ara a canviar.

La introducció d’anuncis no és només una decisió econòmica: marca l’inici d’una nova etapa on la IA, la publicitat i la ciberseguretat convergeixen.

OpenAI ha començat a provar publicitat a ChatGPT, un moviment que, tot i ser limitat per ara, obre preguntes profundes sobre confiança, privacitat i seguretat digital. Ja hem vist com la IA pot utilitzar tècniques d’evasió en ciberseguretat; afegir un component publicitari suma una nova capa de complexitat.


ChatGPT amb anuncis: què canvia realment

La prova actual està acotada, però estableix un precedent. Afecta únicament a:

  • Usuaris del pla gratuït i pla Go.
  • Persones adultes amb sessió iniciada.
  • Usuaris ubicats als Estats Units.

Queden exclosos els plans Pro, Business i Enterprise, així com els menors de 18 anys i les converses relacionades amb salut, salut mental o política.

Els anuncis apareixeran al final de les respostes, estaran clarament etiquetats i només es mostraran si tenen relació amb la conversa. L’usuari podrà ocultar-los i desactivar la personalització. Sobre el paper, el model sembla prudent. A la pràctica, introdueix una variable nova: la publicitat entra en un entorn basat en la confiança.


Quan la confiança es converteix en superfície d’atac

En ciberseguretat, cada canvi en una plataforma crea una nova “superfície d’atac”. I la publicitat és una de les més explotades històricament.

1. Enginyeria social en la seva forma més eficaç

Els anuncis apareixen quan l’usuari ja ha formulat un problema concret. Això significa:

  • Context clar.
  • Atenció màxima.
  • Barreres mentals baixes.

Aquest és l’escenari ideal per a l’enginyeria social avançada, on un missatge patrocinat pot percebre’s com una recomanació implícita del sistema. Si els ciberdelinqüents ja utilitzen el context per llançar ciberestafes a autònoms i pimes, un anunci situat en el moment exacte d’un dubte tècnic és un vector d’atac molt potent.

2. Transferència de confiança: un risc silenciós

Tot i que els anuncis estiguin separats del contingut visualment, molts usuaris:

  • No distingeixen bé entre resposta generada i publicitat.
  • Assumeixen que “si apareix aquí, és segur”.

Aquest fenomen, molt conegut en ciberseguretat, s’anomena transferència de confiança i ha estat clau en fraus dins de cercadors i xarxes socials durant anys.

3. Publicitat, dades i percepció de privacitat

OpenAI afirma que les converses no es venen, no es comparteixen amb anunciants i que els anuncis no influeixen en les respostes. Tot i així, la introducció de publicitat reactiva una preocupació legítima: quines dades s’utilitzen i com s’interpreten?


On hi ha diners, apareix l’abús

La història d’internet és clara: quan una plataforma incorpora anuncis, apareixen intents d’explotació:

  • Suplantació de marques legítimes.
  • Anunciants fraudulents (Malvertising).
  • Enllaços maliciosos.
  • Malware disfressat de serveis legítims, com els perillosos infostealers que roben credencials.

Pensar que la IA serà immune a aquestes dinàmiques seria ignorar dècades de precedents en ciberseguretat.


L’impacte en empreses i professionals

Moltes organitzacions utilitzen ChatGPT com a eina de suport per a consultes tècniques, redacció de continguts o suport intern. L’arribada d’anuncis reforça la necessitat de prendre mesures proactives, similars a les que recomanem al nostre checklist de seguretat per a pimes:

  1. Polítiques clares d’ús de IA: Definir quines eines es poden utilitzar i sota quines llicències.
  2. Formació específica: Ensenyar als empleats a distingir contingut orgànic de promocionat dins dels chatbots.
  3. Separació d’usos: Distingir estrictament entre ús personal i professional.
  4. Preferència per plans sense anuncis: En entorns sensibles corporatius, el pagament per llicències Enterprise o Team es converteix en una mesura de seguretat, no només de productivitat.

Aquí, la ciberseguretat deixa de ser tècnica i passa a ser estratègica.


El veritable debat que s’obre

La pregunta ja no és només com es finança la intel·ligència artificial. La qüestió de fons és una altra: Com es protegeix la confiança de l’usuari quan la IA es converteix també en un canal publicitari?

La introducció d’anuncis a ChatGPT no és el final del model gratuït. És l’inici d’una etapa on seguretat, ètica i negoci hauran d’avançar al mateix ritme. Qui entengui aquesta convergència abans —usuaris, empreses i professionals— estarà millor preparat per al que ve, tal com analitzem a les nostres tendències de ciberamenaces per al 2026.

Conclusió: Protegir la confiança digital

L’arribada d’anuncis a eines d’intel·ligència artificial marca un canvi profund en com interactuem amb la tecnologia i com hem de protegir usuaris, empreses i dades.

A GuardianHubX ajudem a organitzacions i professionals a identificar nous riscos digitals lligats a IA i a dissenyar estratègies de ciberseguretat adaptades.

Si vols analitzar com aquests canvis poden afectar la teva empresa, el teu projecte o els teus usuaris, estem aquí per ajudar-te.

👉 Pots posar-te en contacte amb el nostre equip a través d’aquest formulari: https://guardianhubx.com/ca/#contact

⚠️ Avalua Riscos de IA en el teu Negoci — Desafíos de confianza + marco de riesgo + mitigación.