News 05.07.2011, 09:29 Uhr

Weltweite Datenmenge: zwei Zettabyte

Gigantisches Wachstum: Einer aktuellen Studie zufolge werden dieses Jahr vermutlich beinahe zwei Zettabyte Daten erzeugt und kopiert. Das entspricht über 200 Milliarden HD-Filmen.
Das weltweite Datenvolumen verdoppelt sich alle zwei Jahre und wird bereits 2011 die 1,8-Zettabyte-Marke erreichen. Dies hat die Digital-Universe-Studie ergeben, welche die Marktforscher von IDC im Auftrag des Speichergiganten EMC erstellt haben.
1,8 Zettabyte Daten entsprechen laut EMC mehr als 200 Milliarden HD-Filmen, die jeweils zwei Stunden dauern. Das reicht für ununterbrochenen Filmgenuss während 47 Millionen Jahren. Eine Zeitspanne, die beinahe unvorstellbar ist.
Das gigantische Datenwachstum sorgt allerdings nicht nur für interessante Rechenbeispiele, sondern auch für ganz reale Probleme. So müssen sich die IT-Abteilungen beispielsweise darauf einstellen, dass sich innert der kommenden zehn Jahre die Zahl der Server verzehnfacht und künftig das 50-Fache an Informationen verwaltet werden muss. Um dies zu bewerkstelligen, werden dann gemäss EMC 1,5-mal so viele IT-Experten benötigt.
Weitere Ergebnisse der IDC-Digital-Universe-Studie finden sich auf Emc.com.



Kommentare
Avatar
thom45
05.07.2011
tzetzetzetze... 1,8 Zettabyte Daten entsprechen laut EMC mehr als 200 Milliarden HD-Filmen, die jeweils zwei Stunden dauern. Das reicht für ununterbrochenen Filmgenuss während 47 Millionen Jahren. Eine Zeitspanne, die beinahe unvorstellbar ist. Probleme haben die Leute. Jo mäi au. tzetzetzetze... Das ist ja nur etwa 10 mal so lang, wie von der Epoche der Morgendämmerung der Menschheit in der Sawanne Ostafrikas bis heute, dem Homo-Geiz-ist-geil. Und es ist etwa 100 mal weniger als das Alter des gesamten Planetensystems. Ojeeeeeee... Das gigantische Datenwachstum sorgt allerdings nicht nur für interessante Rechenbeispiele, sondern auch für ganz reale Probleme. So müssen sich die IT-Abteilungen beispielsweise darauf einstellen, dass sich innert der kommenden zehn Jahre die Zahl der Server verzehnfacht und künftig das 50-Fache an Informationen verwaltet werden muss. Um dies zu bewerkstelligen, werden dann gemäss EMC 1,5-mal so viele IT-Experten benötigt. Jaaaaaa, was ist denn das jetzt schon wieder....? tzetzetzetze... Die wirklich brennende Information hat man (bewusst) ausgeklammert, um wieviel mehr Energien und Resourcen damit versaut werden... Ach ja, ich verstehe jetzt, das wäre eine Information vom Typus LÄSTIG, und darum lieber gleich: Weg damit. Jetzt aber doch (wegklicken, für die welche jetzt nicht weiterlesen wollen!): Vor wenigen Jahren hiess es, dass das weltweite Internet soviel Erdöl verbraucht, wie der ganze weltweite Luftverkehr im selben Zeitraum. Aufpassen: Vor wenigen Jahren! Und der Clou ist noch der, dass der eigentliche Enrgieverbrauch des Internet noch viel höher ist. Und wie sieht das denn in den nächsten 10 Jahren aus??? Ende der lästigen Durchsage...

Avatar
Polii
05.07.2011
Und der Clou ist noch der, dass der eigentliche Enrgieverbrauch des Internet noch viel höher ist. Und wie sieht das denn in den nächsten 10 Jahren aus??? Der Energieverbrauch steigt aber nicht proportional zum Informationsanstieg.

Avatar
thom45
06.07.2011
Der Energieverbrauch steigt aber nicht proportional zum Informationsanstieg. So gesehen vielleicht schon nicht. Aber im selben Raum wachsen auch die Transfer- und Verarbeitungsgeschwindigkeiten und das verbraucht auch mehr Energie. Und dazu kommt die immense graue Energie, durch die "Entsorgung" und Neuherstellung von weltweiter schnellerer Hardware, von den Servern, Netzwerktechnologien bis hin zu den einzelnen schnelleren Computer. Wirkungsgradverbesserungen sind bald einmal am Limit, denn hocheffiziente Schaltregler sind schon lange im grossen Umfang im Einsatz. Well, wenn man dies alles ehrlicherweise mit einbezieht, dürfte der Energieverauchszuwachs sogar überproportional zu nehmen.

Avatar
coceira
06.07.2011
um wieviel mehr Energien und Resourcen damit versaut werden... hi thom, nicht ganz einverstanden eine zunahme des energieverbrauchs klar, aber wenn ich nur schon daran denke was z.b. eine 10 MB harddisk (IBM 31xx + controller nicht zu vergessen die hallenfuellenden cpu´s vom typ 158/168 in den 80ern "verheizt" haben. Wieviel watt hat meine 10 TB hdd box heute 120 W ? keine ahnung aber noch vor wenigen jahren haette ich dafuer ein eigenes mittelgrosses kraftwerk gebraucht. (Kilowatt pro megabyte ueber die letzten 10-20 jahre waer auch mal eine interesannte zahl)

Avatar
thom45
06.07.2011
Es wachsen keine Bäume in den Himmel... ... und der Limit ist nicht der Himmel, wie ein Schlager weismachen will. Hi Coceira, hi thom, nicht ganz einverstanden eine zunahme des energieverbrauchs klar, aber wenn ich nur schon daran denke was z.b. eine 10 MB harddisk (IBM 31xx + controller nicht zu vergessen die hallenfuellenden cpu´s vom typ 158/168 in den 80ern "verheizt" haben. Wieviel watt hat meine 10 TB hdd box heute 120 W ? keine ahnung aber noch vor wenigen jahren haette ich dafuer ein eigenes mittelgrosses kraftwerk gebraucht. (Kilowatt pro megabyte ueber die letzten 10-20 jahre waer auch mal eine interesannte zahl) Ja, das weiss ich mit 65 Jahren natürlich alles auch. Und ich weiss auch warum in diesem Zeitraum derart viel Energie eingespart wurde. Um zwei Sachen anzufuehren: In den 1980er-Jahren wurden noch mehrheitlich lineare Netzteile/geräte eingesetzt mit einem lausigen Wirkungsgrad. Wenn es sehr gut kam, waren das 45%. Ich habe damals selbst Netzgeräte für den 5V-Betrieb gebaut. Schon 20 Jahre später hat sich dieses Bild völlig geändert, weil hocheffiziente Schaltregler bei den meisten Applikationen eingesetzt wurden. Das wurde in den letzten 10 Jahre noch ein wenig besser. Und genau da kommt der Limit in Funktion von dem ich geschrieben habe. Aber auch noch in anderer Hinsicht. Bis anfangs der 1980er-Jahre hinein wurde für die digitale Elektronik noch lange TTLs (Transistor-Transistor-Logik) eingesetzt. Diese Bausteinfamilie sind massive Stromfresser auch dann, wenn sie bei verhältnismässig niederiger Taktfrequenz im Einsatz sind. Für beonders schnelle Logik gab es ebenfalls die stromfressende ECL-Technik (Emitter gekoppelte Logik). Das änderte sich rassant mit dem Aufkommen der HC- und AC-MOS-Technologie (HC = Highspeed, AC = Adcanced) [für mehr Details, siehe Wiki!]. Der Leistungsverbrauch dieser Logik ist drastisch niederiger, weil nur gerade die Teile, welche mit sehr hohen Taktfrequenzen arbeiten müssen, viel Leistung verbrauchen. Der Leistungsverbrauch ist im Mittel sehr viel niedriger. Damit Du mich nicht falsch verstehst, bei diesen CMOS-Varianten meine ich keineswegs nur die Familien-Logikbausteine. Auch die CPUs und andere Computer-ICs habe als Grundlage schnelle CMOS-Technologien. Nicht erst seit heute, gibt es gar nichts anderes mehr als sehr schnelle CMOS-Technologien. Es gibt noch gewisse Verbesserungsmöglichkeiten im Bereich der Chipstrukturen in der CPU u.ä. Aber wirklich grosse Sprünge bezweifle ich. Also auch aus diesem Aspekt heraus erwartet uns ein Limit. Zukunft (bisschen auch Science-Fiction): Ob in Bezug auf Leistungsreduktion in Relation zur Verarbeitungsgeschwindigkeit beim Quantencomputer etwas drin liegt, vielleicht. Weiss ich nicht, weil da kenne ich mich überhaupt nicht aus. Die Science-Fiction-Anmerkung deshalb, weil es nach dem anfänglichen kurzen Boom recht still geworden ist, bezüglich Fuzzy-Logic und Neuronalen Netzwerken... BTW.: Ich habe mal gelesen, dass bei GOOGLE NNs im Spiel sind und zwar dort wo es um die Funktion geht "Meinten Sie [text]?"

Avatar
Seek83111
06.07.2011
Wie schnell verdoppelt sich die Informationsmenge?