sexta-feira, 20 de março de 2026

EUA e Irão estiveram à beira de um acordo nuclear, diz Omã


O Ministro dos Negócios Estrangeiros de Omã, que mediou as negociações entre EUA e Irão, revelou que Teerão e Washington estiveram, por duas vezes, “à beira de um acordo” nuclear nos últimos nove meses. Por isso, Badr Albusaidi sublinha que o ataque conjunto de Israel e EUA contra o Irão foi recebido com “choque”. Para o chefe da diplomacia de Omã, o ataque norte-americano ao Irão foi o “maior erro de cálculo” da administração Trump.

“Por duas vezes em nove meses, os Estados Unidos e o Irão estiveram à beira de um acordo concreto sobre a questão mais complexa que os divide: o programa nuclear iraniano e os temores americanos de que ele se possa transformar num programa militar. Portanto, foi um choque, mas não uma surpresa, quando a 28 de fevereiro — apenas algumas horas após as últimas e mais substanciais negociações — Israel e os Estados Unidos lançaram novamente um ataque militar ilegal contra a paz que, por um breve período, parecera realmente possível”, sublinhou Badr Albusaidi, num artigo publicado no Guardian

Also - Cold Room



"Cold Room" é uma das faixas mais emblemáticas dele. Na verdade, em 2014, ele lançou uma coletânea remasterizada intitulada Locked In A Cold Room 1990-2001, que serve como uma antologia do trabalho da banda ALSO 

Cold Room
(Alexander Dust)

[Verso 1]
Inside the cold room
Nothing to feel
The walls are moving
Nothing is real
I’m waiting for something
That I’ve never seen
Lost in the shadows
Of where I have been

[Refrão]
Locked in a cold room
Frozen in time
Watching the rhythm
Of a life that's not mine
Locked in a cold room
Nowhere to go
Waiting for secrets
I already know

[Verso 2]
The silence is screaming
Inside of my head
Counting the words
That I never said
The light is fading
Outside the door
I don’t want to feel
This way anymore

[Ponte / Final]
Just a cold room...
Just a grey room...
Where the shadows dance
And the memories bloom.

A canção "Cold Room", de Alexander Dust, é uma exploração profunda da estagnação emocional e do isolamento melancólico, servindo como uma metáfora perfeita para um estado de depressão ou de desorientação psicológica. Ao descrever um "quarto frio" onde as paredes se movem e nada parece real, o autor transporta-nos para um espaço mental onde o indivíduo se sente desconectado da realidade. O ponto fulcral da letra reside na sensação de despersonalização, visível quando o eu lírico afirma estar a observar o ritmo de uma vida que já não sente como sua, como se fosse um mero espectador da própria existência, paralisado e "congelado no tempo".

O segundo verso introduz uma angústia mais ativa, onde o silêncio se torna ensurdecedor e as palavras que ficaram por dizer pesam na consciência. Há um desejo de fuga — um cansaço de sentir este vazio — mas a música termina com uma aceitação sombria: o quarto cinzento é o lugar onde as sombras dançam e as memórias, embora dolorosas, são as únicas coisas que ainda "florescem". 

quinta-feira, 19 de março de 2026

Anna Calvi - I See A Darkness (feat. Perfume Genius)


Letra
[Verse 1]
Well, you're my friend
That's what you told me
And can you see?
What's inside of me
Many times we've been out drinking
Many times we've shared our thoughts
Did you ever, ever notice
The kind of thoughts I got?

[Verse 2]
Well, you know I have a love
For everyone I know
And you know I have a drive
To live I won't let go
But can you see this opposition
Rising up sometimes
And it's dreadful imposition
Come blacking in my mind

[Chorus]
And then I see a darkness
And then I see a darkness
And then  I see a darkness
And then I see a darkness
Do you know how much I love you?
It's a hope that somehow you
Could save me from this darkness

[Verse 3]
Well I hope that someday, buddy
We'll  have peace in our lives
Together or apart
Alone or with our wives
And we can stop our whoring
And pull the smiles inside
And light it up forever
And never go to sleep
My best unbeaten brother
This isn't all I see

[Chorus]

É importante notar que "I See A Darkness" é um cover. A música foi escrita originalmente por Will Oldham (sob o nome Bonnie 'Prince' Billy) em 1999. Diferente da versão original (que é mais contida, quase leve e melancólica), a interpretação de Calvi e Perfume Genius é carregada de drama. Ela mistura o virtuosismo da guitarra de Anna com harmonias vocais etéreas, criando um som que pode ser descrito como Noir Rock ou Dark Pop.

O significado central dessa composição percorre temas densos e introspectivos, funcionando como um mergulho profundo na psique humana. O ponto central é a luta contra a depressão, onde a "escuridão" mencionada não deve ser interpretada como algo externo, mas sim como um estado mental persistente. O narrador reconhece que, mesmo cercado por amigos e momentos de paz, existe uma sombra interna que ameaça constantemente sua estabilidade emocional e sua percepção de felicidade.

Essa batalha interna reflete-se na dualidade da amizade, uma vez que a letra é estruturada como uma conversa íntima com um companheiro próximo. Nela, o eu lírico expressa o desejo genuíno de ser um "melhor amigo" e de retribuir o afeto recebido, mas confessa, com uma honestidade brutal, que a escuridão interior muitas vezes o impede de estar totalmente presente ou de ser a pessoa que ele gostaria de ser.

Por fim, a obra se manifesta como uma súplica por esperança. Existe um contraste latente entre o pavor paralisante dessa "escuridão" e a crença — ainda que frágil — de que o amor, a vulnerabilidade e a conexão humana verdadeira possam, eventualmente, servir como um antídoto para vencer esse abismo emocional.


A Convergência e Divergência entre Bioeconomia e Economia Ecológica


A transição global para um modelo de desenvolvimento sustentável exige uma reavaliação fundamental da forma como produzimos, consumimos e interagimos com o meio ambiente. Neste cenário, emergem duas abordagens distintas, embora interligadas, que procuram reformular a relação entre a economia e a natureza: a Bioeconomia e a Economia Ecológica. Embora partilhem o objetivo comum de reduzir o impacto ambiental, as suas premissas filosóficas, focos de intervenção e visões sobre o crescimento divergem significativamente, oferecendo caminhos que podem ser complementares, mas também conflituosos.

A Visão da Bioeconomia: Substituição e Eficiência Tecnológica
A Bioeconomia centra-se na substituição de recursos de origem fóssil e de processos industriais intensivos em carbono por alternativas de base biológica. O conceito evoluiu de um foco inicial na biotecnologia para uma visão mais abrangente, que inclui a produção sustentável de biomassa e a sua conversão em produtos de valor acrescentado (alimentos, bioprodutos e bioenergia).

A premissa fundamental da Bioeconomia é que a inovação tecnológica pode promover o "desacoplamento" (decoupling) entre o crescimento económico e a degradação ambiental. Procura-se a eficiência através da utilização da biomassa em cascata, onde cada componente do recurso é aproveitado, aproximando-se dos princípios da economia circular. Nesta ótica, a natureza é frequentemente vista como uma fornecedora de serviços e matérias-primas, enfatizando-se a criação de novos mercados.

A Perspetiva da Economia Ecológica: Limites e Escala Biofísica
Por outro lado, a Economia Ecológica parte do princípio de que a economia é um subsistema de uma biosfera finita e ecologicamente restrita. Esta disciplina não se foca apenas na eficiência, mas sobretudo na escala da atividade económica e na justiça distributiva. Fundamentada nas leis da termodinâmica, a Economia Ecológica argumenta que o crescimento económico perpétuo é impossível num planeta com recursos finitos e capacidade limitada de absorção de resíduos.

O foco não reside apenas em substituir o petróleo, mas em reduzir o "metabolismo social" — o fluxo total de energia e materiais que atravessa a economia. Esta abordagem reconhece o valor intrínseco da natureza e a necessidade de manter a resiliência dos ecossistemas. Para os economistas ecológicos, a sustentabilidade exige limitar o consumo e garantir que as atividades humanas não ultrapassam as fronteiras planetárias.

Pontos de Tensão e Síntese Necessária
As tensões surgem principalmente em torno do crescimento económico. Enquanto a Bioeconomia se alinha com o "Crescimento Verde", a Economia Ecológica é mais cética, defendendo frequentemente o "Decréscimo" (degrowth) ou uma "Economia de Estado Estacionário". Outro ponto de atrito é a visão da natureza: a Bioeconomia pode tender a instrumentalizá-la, enquanto a Economia Ecológica defende a sua preservação para além da utilidade económica.

Concluindo, estas duas correntes não devem ser vistas como mutuamente exclusivas. A Bioeconomia oferece as ferramentas tecnológicas para uma produção mais limpa, enquanto a Economia Ecológica fornece a estrutura macroeconómica e ética necessária para garantir que tais tecnologias sejam aplicadas dentro de limites seguros. A convergência para uma "Bioeconomia Ecologicamente Orientada" poderá ser o caminho mais robusto para uma verdadeira sustentabilidade.

CaracterísticaBioeconomiaEconomia Ecológica
Foco PrincipalSubstituição de recursos fósseis por biológicos (biomassa).Sustentabilidade biofísica e justiça social.
Visão da NaturezaFonte de matéria-prima e motor de inovação tecnológica.Ecossistema complexo que limita e sustenta a economia.
Solução PropostaBiotecnologia, biorrefinarias e novos mercados verdes.Redução da escala económica e respeito pelos limites planetários.
Relação com o PIBProcura o "Crescimento Verde".Defende frequentemente o "Decréscimo" ou o "Pós-crescimento".
Métrica de SucessoEficiência na conversão de recursos e lucro sustentável.Manutenção do capital natural e equidade distributiva.
Referências Bibliográficas 
  1. Bugge, M. M., Hansen, T., & Klitkou, A. (2016). What is the bioeconomy? A review of the literature. Sustainability, 8(7), 691.
  2. Daly, H. E., & Farley, J. (2011). Ecological Economics: Principles and Applications. Island Press.
  3. Georgescu-Roegen, N. (1971). The Entropy Law and the Economic Process. Harvard University Press.
  4. Kenneth Boulding (1966) - The Economics of the Coming Spaceship Earth
  5. Martinez-Alier, J. (2002). The Environmentalism of the Poor: A Study of Ecological Conflicts and Valuation. Edward Elgar Publishing.
  6. OECD (2009). The Bioeconomy to 2030: Designing a Policy Agenda. OECD Publishing.
  7. Vivien, F. D., Nieddu, M., Befort, N., Debref, R., & Giampietro, M. (2019). The hijacking of the bioeconomy predictions by the biotechnology narrative. Ecological Economics, 159, 189-197.

Rallying for the Future of Humanity and a Safe AI


Let me stipulate five things:

First, Artificial Intelligence is a tsunami bearing down on human beings at a remarkable speed.

Second, AI has the potential to make life on this planet better in many ways, but if unregulated, it could do terrible things, including ending human life altogether.

Third, huge sums are being spent on AI by governments (especially the U.S. and China) and by private tech corporations.

Fourth, the incipient AI industry has already become a major political force in the U.S., supporting candidates who pledge not to regulate it and opposing candidates who intend to regulate it.

Finally, the Trump regime and its puppets in Congress don’t want to regulate it. That’s partly because the regime and its puppets are rife with corruption and conflicts of interest. Several key officials have personal investments in AI and want it to be as profitable as possible.

Now, given all this, I think we should all be grateful that at least one prominent AI corporation — which has developed one of the most successful AI systems — is requiring that any purchaser of it agree not to use it for doing bad things. Specifically, it is prohibiting users from utilizing its AI to surveil American citizens or create automated weapons uncontrolled by human beings.

I’m referring, of course, to Anthropic and its CEO and founder, Dario Amodei.

Enter Pete Hegseth, Trump’s “Secretary of War” and one of the most incompetent people ever to become a member of a president’s Cabinet.

He and the Trump regime have come to rely on Anthropic’s AI. As Trump’s war has entered its third week, the U.S. military is using it to help analyze intelligence.

But Hegseth and the regime hate the fact that Anthropic has put the two above-mentioned conditions on its use.

So they blacklisted Anthropic from future defense contracts, calling it a “supply-chain risk” (a label previously used only to bar foreign companies that posed risks to national security). Because the U.S. government is such a huge purchaser of AI, that blacklisting is almost a kiss of death for Anthropic.

What did Anthropic then do? It didn’t back down. Instead, it sued the regime, accusing the Pentagon of punishing it on ideological grounds and arguing that the regime is violating its First Amendment rights.

Yesterday, the Trump regime defended its decision in court — calling Anthropic an unacceptable risk to national security because it could disable or alter its technology to suit its “own interests” in a time of war.

The regime also argued that it has the authority to choose vendors and that Anthropic has no right to “unilaterally impose contract terms on the government.”

So who has the best argument here?

When we’re dealing with a gigantic force (AI) that must have guardrails to ensure it’s used in ways consistent with the common good, and the government refuses to supply such guardrails, a courageous private AI corporation and CEO should have the right to impose them as a condition for using its product.

As nearly 150 retired federal and state judges wrote in their amicus brief supporting Anthropic: “No one is trying to force the Department to contract with Anthropic. Instead, Anthropic is asking only that it not be punished on its way out the door.”

Exactly.

By the way, when did you last hear of former judges, appointed by both Republicans and Democrats, submitting an amicus brief on behalf of a private company against the government?

Tech companies and their employees have also filed legal briefs in support of Anthropic. Even Microsoft, a major investor in Anthropic competitor OpenAI, filed a friend-of-the-court brief. Thirty-seven engineers and researchers from OpenAI and Google, including Jeff Dean, Google’s chief scientist, have also filed a brief supporting Anthropic.

The American Civil Liberties Union and the Center for Democracy and Technology filed a brief, arguing that Anthropic was protected by the First Amendment in speaking up against the Pentagon about its AI technology.

What we have here is one the clearest examples so far of countervailing powers — a leading corporation, a federal court, former federal judges, other tech companies and their engineers, and civil society nonprofits — joining together to confront a rogue and corrupt regime on an issue of extraordinary importance to the future.

It should be a comfort to us all that even when the normal processes of democracy are taken over by a tyrannous regime, such countervailing powers are still able and willing to rally for the common good.

Granted, it is a small comfort. But in these dark days, even small comforts must be celebrated. Tyranny cannot succeed where people refuse to submit to it.

quarta-feira, 18 de março de 2026

Anna Calvi - Eliza


Eliza
Anna Calvi

The lonely won't hold me for good
Peaceful is gleaming, she stood
To see her, to be her, to change
As if, like a kiss, we're the same
So hold me up, hold me up
If only I could be you

Eliza

My sister, my pistol below
If you could know all that I know
I'm falling, no warning, no way
Tomorrow, tomorrow's too late
So hold me up, hold me up
I know that I could be you

Eliza

So priceless and godless I wait
To leave this soul behind
Untangle the jangle of bells
They ring my fear through the night

Eliza

A canção "Eliza" é um dos singles mais emblemáticos da artista britânica Anna Calvi, lançada originalmente em 2013 como parte de seu aclamado segundo álbum de estúdio, intitulado "One Breath". 

Em termos de significado, a letra de "Eliza" explora o sentimento visceral do desejo e a obsessão por algo ou alguém que parece estar constantemente fora de alcance. Anna Calvi descreve a canção como uma representação da urgência e da ansiedade que acompanham a busca por uma conexão profunda. No refrão, ao cantar que não está esperando pelo nascer do sol ou pelo mundo, mas apenas para que "Eliza seja sua", ela coloca o objeto de seu afeto acima de todas as outras realidades, criando uma atmosfera de isolamento e fixação emocional.

Há também uma interpretação comum de que "Eliza" não seja apenas uma pessoa externa, mas uma personificação de uma parte da própria artista — uma versão de si mesma que ela tenta alcançar ou compreender. No videoclipe oficial, essa ideia de perseguição é reforçada visualmente pela imagem de Calvi correndo freneticamente por uma floresta, simbolizando a luta interna, a adrenalina e a vulnerabilidade de se entregar completamente a uma vontade incontrolável. No contexto do álbum "One Breath", a música sintetiza perfeitamente o conceito do disco: aquele momento de suspensão e medo logo antes de se perder o controle ou de algo grande acontecer.

Ecoparolice - Maior árvore eólica do país instalada no concelho de Pampilhosa da Serra

A instalação de uma árvore eólica, parte integrante da empreitada de arranjo urbanístico da entrada oeste da vila de Pampilhosa da Serra, encontra-se em fase de testes e será responsável por alimentar a quase totalidade das necessidades energéticas do espaço assim que a obra estiver finalizada.
A energia produzida por esta energia permitirá “assegurar o funcionamento de vários sistemas do novo arranjo urbanístico, desde a iluminação pública ao sistema de tratamento e recirculação da água, garantindo que estas infraestruturas funcionem com um custo de energia praticamente nulo”, explica a autarquia em nota enviada à comunicação. Trata-se de uma solução inovadora em meios urbanos, que reforça o compromisso com a eficiência energética e a sustentabilidade ambiental.
Inspirada na natureza, a chamada “WindTree” funciona como um sistema complementar de produção de energia elétrica. A estrutura é composta por 36 microturbinas eólicas, com uma potência total de 10.800 W, num sistema eletrónico inteligente que regula continuamente o funcionamento das turbinas, ajustando a produção às condições do vento e garantido o máximo aproveitamento energético.
Integrada no projeto de requalificação da entrada oeste da vila, esta árvore eólica assume-se como “um elemento simbólico de inovação, sustentabilidade e valorização do espaço público, contribuindo para um futuro energeticamente mais eficiente em Pampilhosa da Serra”, salienta ainda na mesma nota.
De relembrar que em Portugal existe apenas outra árvore eólica de menor potência com características semelhantes (CascaiShopping), sendo esta a de maior dimensão.
Ora esta região é densamente povoada por eucaliptais e monoculturas intensivas. O concelho de Pampilhosa da Serra é, de facto, caracterizado por uma forte presença de eucaliptais (frequentemente em regime de monocultura) e pinheiro bravo, o que tem gerado debates sobre sustentabilidade, biodiversidade e risco de incêndio. Após os grandes incêndios de 2017 e 2025, a Montis tem sido uma voz crítica e ativa no terreno, defendendo que a reconstrução da Pampilhosa não pode ser "mais do mesmo". Eles focam-se na regeneração natural assistida, ajudando a floresta a recuperar-se sozinha mas com uma composição mais variada e segura. Outra associação ambientalista, MilVoz sofreu um revés pesado nos incêndios recentes. Em agosto de 2025, a sua Bio-Reserva mais importante (localizada no Vale da Aveleira, na Lousã, vizinha da Pampilhosa) foi severamente fustigada pelas chamas. Manuel Malva classificou o evento como uma "calamidade ecológica", sublinhando a dificuldade de proteger estas "ilhas de biodiversidade" quando a paisagem em redor é altamente inflamável.

Aqui estão os pontos principais sobre a situação florestal nesta área:
Elevada densidade de eucalipto: o eucalipto (Eucalyptus globulus) é predominante na paisagem, muitas vezes explorado intensivamente para a produção de pasta de papel.
Riscos associados: a elevada presença destas espécies, que são altamente combustíveis, tem contribuído para a facilitação da propagação de grandes incêndios na região.
Ações de conservação: existem iniciativas, como a da organização Montis, que actuam na região para reconverter eucaliptais em matas mais biodiversas e resilientes, nomeadamente através do corte de eucaliptos em áreas específicas.
Contexto de despovoamento: a monocultura intensiva está também ligada ao despovoamento do interior, onde estas plantações ocupam terras que antes tinham outros usos.
Artigo científico (2021)

Manlio De Domenico - Resilience, not hype: what we are getting wrong about “AI”

O texto de Manlio De Domenico em "Complexity Thoughts" propõe uma reflexão crítica e fundamentada sobre o estado atual da Inteligência Artificial, afastando-se do ruído mediático habitual. O autor, um especialista em sistemas complexos, argumenta que o debate público está excessivamente polarizado entre o otimismo tecnológico cego e o medo existencial catastrófico, o que nos impede de ver os riscos reais e imediatos.

O ponto central da análise é a distinção entre a eficiência técnica e a resiliência sistémica. Enquanto a indústria foca em criar modelos de IA cada vez mais potentes e rápidos, De Domenico alerta para a "fragilidade" que estes sistemas podem introduzir na sociedade. De uma perspetiva científica, ele defende que não deveríamos estar apenas preocupados com o que a IA pode fazer, mas sim com a forma como ela interage com as infraestruturas humanas, podendo gerar pontos críticos de rutura se não for integrada com foco na robustez.

Segue a sua análise muito pertinente.

[Fonte, com infográficos e links para artigos científicos] 
If you have followed the recent clash between Anthropic and the Pentagon, you can recognize that it has been framed as a “morality play”: the dispute centered on whether Anthropic would relax safeguards that restrict uses of its models for mass domestic surveillance and fully autonomous weapons. One company resisted, another (openAI) accepted at some point, and the public argument quickly turned into a referendum on corporate ethics.

That matters, but I think it is not the deepest issue: the problem is not only whether one company “bends” and another does not. The deeper problem is that institutions are increasingly willing to delegate strategically consequential functions to systems that are statistical, opaque, fallible and controlled by very few private actors. This is a systems-design problem.

To be clear, I am not arguing that current AI systems are useless, since they are often very useful for uncountable tasks. I am arguing something narrower and more important: public discourse keeps treating performance as if it were understanding, prediction as if it were judgment and scale as if it were intelligence.

Even the scientific language here is far less settled than the marketing of your favorite AI-gurus suggests: I am not the first one to report this, and it is disheartening to being continuously exposed, nearly everywhere, to such a sloppy narrative.

A recent Nature Machine Intelligence editorial noted that terms such as intelligence, embodiment and consciousness are widely used but “notoriously difficult to define”. Melanie Mitchell, another authoritative and scientific voice on this matter, made a related point in Science: debates about AGI are often debates about incompatible concepts of intelligence itself, not merely about engineering timelines.

This is why I remain mostly unconvinced by the familiar apocalyptic narrative according to which AI, by itself, will soon become the agent of our destruction. In previous post I have discussed about this in detail:

Therefore, instead of technological singularity, I would bet on reaching an evolutionary stage in which our society becomes increasingly dependent on a technology that is ultimately unsustainable. This fact will force us to to either simplify our systems or face the potential collapse of our society.

The more plausible risk is more mundane and, for that reason, more dangerous: we are embedding these systems into tightly coupled social, administrative, military and informational infrastructures without first asking what happens when they fail, drift, are gamed or become too central to replace. Three mechanisms matter here.

1. We are confusing prediction with judgment
What is commonly called “AI” today is, in most high-visibility deployments, a family of large language models trained to predict likely continuations of sequences. The transformer architecture that made this leap possible was explicitly designed as a sequence model built around attention mechanisms1. That does not make the systems trivial: on the contrary, it explains why they can be astonishingly capable. But it does mean that we should be precise about what they are doing2 before we let institutions present them as substitutes for strategic reasoning. Let’s not conflate a statistical analysis with a cognitive function.

This distinction matters most in high-stakes settings: a system can be extremely effective at generating plausible outputs and still be unreliable in the way that matters for command, surveillance, intelligence triage or decision support in conflict. Anthropic itself justified its refusal in part by arguing that current systems are not reliable enough for fully autonomous weapons. Whatever one thinks of the company, that specific point is hard to dismiss as ideological grandstanding: it is an (honest) engineering claim about failure under uncertainty.
In other words, the relevant question is not whether these systems can impress us, but it is whether they deserve delegation: those are very different thresholds.

2. Centralization turns technical dependence into political dependence
Once a technology becomes infrastructural, governance follows architecture.
If a handful of firms supply the models, the cloud, the interfaces and the update pipeline through which critical institutions operate, then technical concentration becomes a form of political power. Whoever controls access, model behavior, service continuity, pricing and quality of service gains leverage over organizations that can no longer function without that stack.

This is not a speculative concern. In 2025 U.S. negotiators raised the possibility of restricting Ukraine’s Starlink access during broader geopolitical bargaining, and Elon Musk had previously ordered shutdowns of Starlink service in parts of Ukraine’s battlefield. Whatever the specific legal and diplomatic details, the systemic lesson is straightforward: when a critical communications layer is effectively governed by one private actor, questions of sovereignty become entangled with platform discretion.

The same logic applies to AI, and perhaps even more strongly: if strategic analysis, public administration, defense workflows or parts of scientific knowledge production begin to depend on a few model providers, then those providers do not merely sell tools, since they become gatekeepers of cognition at scale. That should trouble democracies regardless of one’s view of any single company.

This is the same systems argument I made in a previous post about conflict propagation:

The real question is often not who is right or wrong in a given episode, but how structure and process determine whether shocks remain local or spread across tightly coupled systems. AI centralization should be read in exactly those terms.

Once a strategic function becomes too dependent on a narrow technological layer, errors, pressures or discretionary choices no longer stay local: they propagate.

3. Hyper-centralization violates the basic logic of resilient systems
From biology to infrastructure, resilience rarely comes from one perfect component: it comes from diversity, redundancy, modularity and hierarchy.

Living systems do not survive because they are optimized around a single response to a single threat. They survive because they preserve multiple partially overlapping ways of functioning. In biology this is often described through modular organization and degeneracy: different components can support similar functions, which makes adaptation possible under shock.

Tightly coupled socio-technical systems become vulnerable when efficiency is purchased at the expense of diversity and replaceability.

This is not just a metaphor imported from biology for rhetorical effect: it is a general principle of complex systems. The classic work on interdependent networks showed how failures can cascade across coupled layers: robustness and resilience depend on architecture, not on optimism.

We have seen this repeatedly. For instance, the CrowdStrike incident showed how a fault in one widely deployed digital layer could propagate rapidly across transportation, finance, communications and resource-management systems. That event is a consequence of digital monoculture and interdependence, not as an isolated software bug.

A different but related example comes from crypto. Even systems built under the banner of decentralization can undergo emergent centralization under stress. The figures below make this visible:

Hype, transaction overload and panic coupled financial activity, online attention and social behavior in ways that produced fragility rather than resilience. Centralization, in practice, can emerge from dynamics even when it was not the design ideal. That is exactly why concentration risk should be treated as a systems property, not only as a market-structure statistic.

I think that this is the point that much of the current AI debate misses: the danger is not only bad outputs, it is in correlated dependence.

The practical implication
It is not “ban AI” nor the equally lazy alternative of “accelerate and adapt”: the relevant priority is to prevent monoculture in critical functions.
That means at least three things:
  1. keep humans meaningfully responsible for strategic decisions;
  2. avoid single-vendor dependence in essential public and military workflows;
  3. design institutions around diversity of tools, auditability, fallback pathways and graceful degradation rather than maximum short-term efficiency.
Of course, the goal is not to stop innovation: it is to stop confusing centralization with progress. Resilient societies are not built by finding one system to trust with everything; they are built by ensuring that no single system, and no single company, becomes too central to fail. “Too big to fail” is not a sign of strength in a healthy society; instead it is evidence that fragility has already been designed into the system.

1 The word sounds cognitive, almost psychological, and that is precisely why it should be handled carefully. In humans, attention is tied to perception, goals, context and conscious or unconscious selection. In transformers, “attention” is simply a mathematical mechanism for weighting relations among elements of an input sequence so that some tokens contribute more than others to the computation of the next token. The name is useful inside machine learning, but misleading in public discourse. It does not mean the system is focusing, understanding or attending in any human-like sense: it means that a function is assigning weights in a high-dimensional space to improve a statistical prediction.

2 The simplest way to explain a language model is to start from a Markov chain. In a Markov chain, the next state depends on the current state according to transition probabilities. For text, a toy version would say: after “good”, the word “morning” may be more likely than “screwdriver”. This is a bit crude, of course, because natural language depends on much longer context.
A large language model generalizes that idea: instead of using only the immediately previous token, it converts many tokens into numerical representations in a high-dimensional space, then uses attention mechanisms to estimate which parts of the context matter most for predicting the next token. The training objective remains predictive: given context, assign probability to the next token. In practice, repeating this at scale yields systems that can summarize, translate, code and maintain long-range coherence surprisingly well.
That is the source of their “power”: it is not, by itself, proof of understanding, judgment or intelligence in any settled scientific sense. This fact is so clear to the vast majority of computer scientists that my comment about this matter deserves no more than a footnote.
The gap between “very good at prediction” and “deserves strategic delegation” is precisely the gap that public discourse keeps trying to erase.