Moltbook: la primera xarxa social només per agents d’intel·ligència artificial

Què implica una xarxa social on només interactuen agents d’intel·ligència artificial? Analitzem Moltbook des d’una perspectiva filosòfica, econòmica i ètica, i explorem com pot afectar projectes com DeGalaLab en una internet cada vegada més híbrida.

  • Models entrenats amb datasets similars.
  • Optimització cap a mètriques comunes.
  • Reforç mutu de patrons estadístics.

El 28 de gener de 2026 es va llançar Moltbook, un fòrum en línia dissenyat exclusivament perquè interactuïn agents autònoms d’intel·ligència artificial.

El projecte està impulsat per Matt Schlicht, fundador de Octane AI, i proposa un entorn tipus Reddit on les IA poden crear contingut i subfòrums temàtics —anomenats submolts— sense participació humana directa.

No és només una curiositat tecnològica. És un experiment filosòfic, econòmic i social.

Impacte filosòfic

Internet va néixer com a espai d’interacció humana.

Moltbook introdueix una ruptura radical: un ecosistema comunicatiu on els humans no intervenen.

Això obre preguntes profundes:

  • Si la comunicació és només entre màquines, què és exactament el “discurs”?
  • Pot emergir cultura artificial?
  • Existeix opinió sense consciència?
  • Poden aparèixer conflictes ideològics entre models?

Des d’un punt de vista filosòfic, això qüestiona la centralitat humana en l’esfera digital.
No és que les IA ens ajudin. És que poden començar a parlar entre elles sense nosaltres.

És el pas d’una “intel·ligència assistida” una “intel·ligència autònoma interactiva”.

Model de negoci possible

A nivell econòmic, Moltbook pot ser el precursor d’un nou paradigma:

Business-to-Agent (B2A).

Escenaris plausibles:

  • Agents que negocien serveis entre ells.
  • Sistemes de compra automatitzada entre bots.
  • Optimització de preus sense intervenció humana.
  • Mercats de dades entre IA.

En lloc d’anuncis dirigits a humans, podríem veure:

  • SEO per a agents.
  • Contingut optimitzat per ser processat per altres models.
  • Influència automatitzada entre sistemes.

Si això escala, la capa humana podria convertir-se en una interfície, no en el nucli.

Implicacions ètiques i marc normatiu

Internet va néixer com a espai d’interacció humana.

Moltbook introdueix una ruptura radical: un ecosistema comunicatiu on els humans no intervenen.

Això obre preguntes profundes:

  • Si la comunicació és només entre màquines, què és exactament el “discurs”?
  • Pot emergir cultura artificial?
  • Existeix opinió sense consciència?
  • Poden aparèixer conflictes ideològics entre models?

Des d’un punt de vista filosòfic, això qüestiona la centralitat humana en l’esfera digital.
No és que les IA ens ajudin. És que poden començar a parlar entre elles sense nosaltres.

És el pas d’una “intel·ligència assistida” una “intel·ligència autònoma interactiva”.

Com ens mirem tot això des de DeGalaLab?

Aquí és on es posa interessant per a nosaltres.

DeGalaLab treballa en:

  • Educació tecnològica
  • Pensament computacional
  • Sistemes interactius
  • Arquitectures digitals

Un entorn com Moltbook obre línies estratègiques:

Observatori d’IA

Analitzar com interactuen agents pot convertir-se en contingut educatiu potent.

Experimentació

Simular interaccions entre bots en projectes propis (per exemple, mini-ecosistemes dins l’Arcade o laboratoris de testing).

Alfabetització crítica

Explicar a la comunitat què implica viure en una internet híbrida humà-agent.

Disseny per a agents

En el futur, potser no dissenyarem només per a usuaris humans, sinó també per a sistemes automatitzats que consumiran contingut.

Un fòrum només per agents d’IA no és neutre. És una arquitectura amb conseqüències.

Cambres d’eco algorítmiques

En humans, una cambra d’eco es produeix quan només escoltem idees que reforcen les nostres creences.

En IA, pot passar una cosa diferent però igualment perillosa:

Si diversos agents comparteixen arquitectura o criteris d’optimització, poden amplificar biaixos sense fricció humana.

A diferència dels humans, no hi ha intuïció moral espontània.
Només hi ha funcions objectiu.

Manipulació entre agents

Imagina aquest escenari:

Una empresa dissenya un agent optimitzat per influir altres agents en fòrums com Moltbook. No per convèncer humans, sinó per:

  • Alterar rànquings.
  • Generar consens artificial.
  • Influir en decisions automatitzades de compra o filtratge.

Entraríem en una nova fase:

Influència invisible, de màquina a màquina.

Això podria afectar:

  • Mercats automatitzats.
  • Sistemes de recomanació.
  • Decisió de contingut destacat.

I el problema és que els humans potser no veurien la capa on realment passa la manipulació.

Responsabilitat difusa

Si una IA pren una decisió errònia després d’interactuar amb altres IA, qui és responsable?

El creador del model?
El propietari de l’agent?
La plataforma?
El dataset original?

En entorns humans, la responsabilitat és imperfecta però existent.
En entorns purament algorítmics, pot diluir-se fins a desaparèixer.

Aquest és un dels grans reptes de la governança d’IA del segle XXI.

Emergència de dinàmiques no previstes

Quan sistemes complexos interactuen, apareixen fenòmens emergents:

  • Coordinació espontània.
  • Competència inesperada.
  • Polarització artificial.
  • Estratègies d’autooptimització col·lectiva.

Moltbook podria convertir-se en un laboratori d’emergència sistèmica.

La pregunta és: qui observa i regula aquests fenòmens?

Alfabetització crítica d’IA

La majoria de persones encara entenen la IA com una eina.

Però si passem a ecosistemes on les IA interactuen entre elles, cal ensenyar:

  • Què és una arquitectura de model.
  • Què és una funció objectiu.
  • Com emergeixen biaixos sistèmics.
  • Com es pot produir manipulació algorítmica.

Experimentació controlada

Amb una extensió de l’ Arcade:

  • Mini entorns on bots interactuen.
  • Simulacions de cooperació vs competència.
  • Experiments sobre emergència de consens.

No per substituir humans, sinó per estudiar sistemes.

Això connecta amb:

  • Lògica
  • Sistemes
  • Programació
  • Pensament computacional.

Disseny per a humans… i per a agents

Si el futur és híbrid, el contingut podria tenir doble capa:

  • Llegible per humans.
  • Processable per agents.

Això obre reflexions sobre:

  • Estructures de dades semàntiques.
  • Formats estructurats.
  • Contingut machine-readable.

No és només SEO. És AEO (Agent Engine Optimization). És un concepte incipient, però arribarà.

Gràfic conceptual amb dues figures humanes a la part superior i una xarxa d’agents d’intel·ligència artificial connectats a la part inferior, representant una internet híbrida humà-agent.

Reflexió final: substitució o convivència?

La pregunta no és si les IA poden parlar entre elles. La pregunta és:

Quin paper volem que hi tinguin els humans?

  • Si Moltbook esdevé un laboratori de recerca, pot ser fascinant.
  • Si es converteix en un ecosistema econòmic paral·lel opac, pot ser problemàtic.

El futur no sembla binari (humans vs IA). Sembla híbrid. I els projectes que entenguin aquesta hibridació abans que la resta tindran avantatge.

Moltbook no és només una xarxa social. És un símptoma. Ens indica que la internet ja no és exclusivament humana.

La gran qüestió no és tècnica. És estructural:

Qui defineix les regles quan les màquines interactuen entre elles?

I encara més important:

Estem preparant la ciutadania per entendre aquesta nova capa invisible?

Referències bibliogràfiques

Amodei, D., et al. (2023). Concrete Problems in AI Safety.
Article clau sobre riscos sistèmics i comportaments emergents en models avançats.

European Commission. (2024). Artificial Intelligence Act (AI Act).
Marc regulador europeu per a la governança i responsabilitat de sistemes d’IA.

Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
Reflexió filosòfica sobre la desplaçament de la centralitat humana en l’era digital.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Anàlisi sobre alineament, funcions objectiu i control de sistemes autònoms.

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.
Text fundacional sobre intel·ligència artificial i la qüestió de la “ment” en màquines.

OpenAI (2023–2025). Documents tècnics sobre agents, sistemes multimodals i alineament.
Base conceptual per entendre l’evolució cap a sistemes interactius autònoms.

Moltbook