08 mei 2024

De Data Gravity Index

In een eerdere blog sprak ik over het ‘gewicht van data‘. Data transporteren kost tijd en energie en door Einstein’s formule E=mc2 te gebruiken heeft data een te bereken massa. In 2006 is een berekening gemaakt dat alle data op het internet toen een gewicht had van ca 50 gram, een flinke aardbei. Zelfs met de huidige tweejaarlijkse verdubbeling van de totale gecreerde data weegt al onze data momenteel niet meer dan 25 kilo. Omdat verdubbeling exponentieel is, werd berekend dat over 350 jaar het aantal bits het aantal atomen op onze planeet zal overschrijden. Deze berekeningen waren de reden in 2020 van de introductie van de Data Gravity Index: meten hoe de creatie, aggregatie en private en publieke uitwisseling van data zich ontwikkelt. Afgelopen maand werd de Data Gravity Index 2.0 gepubliceerd.
De Data Gravity Index image

Data Gravity Index 2.0

Datagravity is de aantrekkingskracht die wordt veroorzaakt door het creëren en uitwisselen van bedrijfsgegevens en het gebruik van applicaties, servers en andere gegevens. Naarmate de creatie en uitwisseling van data groeit, versnelt deze exponentieel. Versterkt nog door de de economische aantrekkingskracht die zij heeft. In centra waar gegevens worden gecreëerd en uitgewisseld, kan deze explosie van gegevens belastend zijn voor de oudere en veelal tragere servers en applicaties. Datagravity veroorzaakt uitdagingen die de efficiëntie van uitwisseling van gegevens, beveiliging, klantervaringen en innovatie op mondiale schaal belemmeren. De Data Gravity Index™ 2.0 meet ook de impact van gegevens op het nationale bruto product.

Het rapport beschrijft hoe het gebruik van digitale data direct is gekoppeld aan het Bruto Nationaal Product van die landen. Hiervoor zijn ruim 100 miljoen unieke data elementen onderzocht inclusief de miljard berekeningen die daaraan ten grondslag lagen. En dat voor 190+ landen en 500+ metropolen. In 2016 voorspelde de WEF dat digitalisering wereldwijd een ‘digital dividend voor de samenleving en het bedrijfsleven’ van honderd biljoen dollar zou kunnen betekenen. Afgelopen jaar stelde het IDC vast dat de verschuiving naar een data-economie in de VS vergevorderd is: in 2022 was de productie van ‘data-dichte producten’ gegroeid tot twee derde (17 biljoen dollar) van het totale Amerikaanse GDP (25 B$).

Clouds worden steeds zwaarder en trager

Een grote onderneming die lange tijd gegevens bij een cloudprovider opslaat, krijgt te maken met uitdagingen die verband houden met Data Gravity. Naarmate data zich snel ophoopt en de afhankelijkheid van de tools van de provider groeit, wordt het moeilijk en duur om naar een andere provider of eigen on-premise te verhuizen. Zelfs als die veranderingen nodig zijn om data dichter bij gebruikers te brengen of inzichten uit silo-data te ontsluiten. Immers ‘data is gewicht’: verplaatsen kost energie en reistijd. De integrale aard van de gegevens voor de activiteiten van de organisatie resulteert in aanzienlijke dataclusters, waardoor verhuizing complex wordt en niet zonder gevolgen is voor essentiële applicaties en diensten.

Het effect van Data Gravity is dat het steeds moeilijker wordt om grote hoeveelheden gegevens te verplaatsen vanwege de cruciale rol ervan in de bedrijfsvoering. Dit maakt het vaak moeilijk en kostbaar om van cloudprovider te wisselen of gegevens weer on-premises te plaatsen. Door de adoptie van nieuwe technieken, zoals kunstmatige intelligentie (AI) nemen de behoeften op het gebied van datalokalisatie, geo-regulering en soevereiniteit flink toe. Dit creëert nieuwe uitdagingen voor ondernemingen zoals data-localisatie. Door data op de eerste plaats te zetten, zowel vanuit zakelijk als technisch oogpunt, kunnen decentrale organisaties profiteren van de verschuiving naar datagestuurde workflows en de kostbare datagravity aanpakken daar waar deze het hoogst is: in de grote bevolkingscentra.

Decentralisatie, van wens naar noodzaak

Datastromen zijn handelsstromen. Ze brengen kostbare informatieproducten van creator en leverancier naar verwerker en gebruiker. Dit vraagt digitale netwerken, hubs en overslagpunten, inclusief tijdelijke opslag van die data. Net als onze oude havens met pakhuizen, overslag en hun verbindingen met het achterland. Dat Nederland een dataknooppunt is, is omdat de eerste grote kabelverbindingen met Amerika bij Nederland aankwamen, waarna datacenters rond Amsterdam (opslag en overslag) zorgden dat het achterland van Europa bediend kon worden. Onze AMS-IX is er groot mee geworden. Als overheid is een digitaal industriebeleid voor deze digitale handel, overslag en distributie essentieel. Niet alleen vanwege ruimtelijke orde, energiegebruik en lokale expertise, maar ook onze strategische afhankelijkheid die we intussen als economie op dit gebied hebben opgebouwd. Onze datahavens zijn intussen economisch groter dan Rotterdam en Schiphol bij elkaar. Waar een klein land – onzichtbaar voor velen – groot in kan zijn.

Net zoals geld geld aantrekt – denk aan de financiele sector – trekt data data aan. Als ik dichtbij grote belangrijke databronnen ben, kan ik snel met die data nieuwe data en innovatieve informatie-producten maken. Dat zien we bij de ontwikkeling van AI momenteel gebeuren: de grootste groei ontstaat dicht bij de plaatsen waar de te gebruiken data makkelijk voorhanden is. Dat zien we ook bij de resultaten van het onderzoek: 75% van de bedrijven zegt dat de ‘data-first strategie’ steeds belangrijker wordt voor zowel klantervaringen als productie van nieuwe informatieproducten. Een net zo grote meerderheid is van plan decentrale bedrijfslocaties te bouwen of in te richten om hun datadistributie en gegevenslokalisatie te verbeteren. Data-latency, het snel kunnen bereiken en gebruiken van essentiële data, wordt steeds belangrijker.

Impact op de cloud

Er wordt verwacht dat tegen 2025 ongeveer 1200 zetabytes (zeta: 1021) aan bedrijfsgegevens worden gecreëerd en gebruikt in publieke en private datacenters. Centrale clouds zijn een belangrijke ‘rustplaats’ voor grote data-omgevingen. Sommigen zijn zo groot dat zij niet of nauwelijks meer kunnen worden verplaatst. De vraag naar gedistribueerde cloudcapaciteit groeit snel. Passend in de ontwikkeling naar het decentrale Web3. Volgens het rapport zien we een groeiende verschuiving van dataverkeer tussen noord en zuid, passend in een totale colocatie van datagebruik en -opslag. Gegevens stromen van de kern steeds meer naar de rand (edge-computing) en dat vraagt datagericht verkeersbeheer en de vraag naar centrale en lokale orkestrators op dat gebied, zeg maar verkeerregelaars.

Voor bedrijven en organisaties betekent dit dat men meer gebruik moet gaan maken van data-gestuurde worksflows. En dat betekent – wat ik al jarenlang uitdraag – een datacentrische architectuur waar (de mogelijkheid tot) gegevensuitwisseling centraal staat. Decentralisatie zorgt tevens voor een verminderde kwetsbaarheid als knooppunten of netwerkverbindingen uitvallen. In een wereld die oorlogszuchtiger wordt, ook niet onwelkom: zorg dat je ‘golden data’ veilig en eventueel ‘air-gapped’ off-line over vele plaatsen is verspreid. Hierbij zijn Web3, edge en blockchainstructuren natuurlijk logische antwoorden. Zorg daarbij ook voor een strategische inrichting en kalibratie van de capaciteit van medewerkercentra. Automatisch is prachtig tot de techniek je in de steek laat, dan zijn ervaren medewerkers je laatste resort.

De Data Gravity Index 2.0 laat wederom genadeloos zien dat wie de data bezit, ook vaak economische kampioen is. Het Nationaal Bruto Product heeft een directe relatie met de data-productie, -connectivity en -opslag ine en land. In 2025 wordt 1200 ZetaByte geproduceerd, opgeslagen op 243 miljoen ‘active storage-devices’ verdeeld over EMEA, Noord Amerika en APAC met respectievelijk 323 ZB, 400 ZB en 461 ZB. Met de aantekening dat APAC de grootste groeier is en blijft...

Door: Hans Timmerman (foto)

Datacollectief BW 13-05-2024 tm 03-06-2024 BW Dutch IT Partner Day tm 11-06-2024
CompTIA Community Benelux BN 7-31 mei