Wie Perlen auf einer Schnur

March 29, 2015

Die Festplattentechnik kommt an ihre Grenzen. Das Racetrack-Konzept soll die Datendichte enorm erhöhen. Es kommt sogar ohne bewegliche Teile aus.

Wie viel Platz brauchen Daten? Während dieser Text in der gedruckten Ausgabe des Tagesspiegel etwa eine halbe Zeitungsseite einnimmt, ist seine digitale Form viel schlanker. Als lange Folge magnetischer Nullen und Einsen ist die zugehörige Datei rund 40 Kilobyte groß. Auch das lässt sich in eine Fläche umrechnen. Auf einer Laptop-Festplatte nimmt die Datei ungefähr 300 Quadratmikrometer ein, das entspricht etwa der Größe eines Staubkörnchens.

Die erste Festplatte war groß wie ein Kühlschrank

Das ist wenig. Oder viel, je nachdem, ob man in die Vergangenheit oder in die Zukunft schaut. 1956 stellte IBM einen Klotz namens IBM 350 vor, den wir heute die erste Festplatte nennen. Das Ding war groß wie ein Kühlschrank und wog eine halbe Tonne. Die runden Platten zur Datenspeicherung hatten einen Durchmesser von gut 60 Zentimeter, im IBM 350 waren gleich 50 Stück davon verbaut. Dieser Artikel hätte knapp die Hälfte einer dieser Platten eingenommen. Man könnte sagen: Die allererste Festplatte bot keine wirkliche Platzersparnis im Vergleich zur Zeitungsseite.

Seither änderte sich die Datentechnik gravierend, gemäß dem Mooreschen Gesetz. Demnach verdoppelt sich alle ein bis zwei Jahre die Speicherdichte. Bisher kommt das hin: Die Datendichte ist innerhalb von 50 Jahren um neun Größenordnungen gewachsen, also um den Faktor eine Milliarde.

Magnetische Bits können nicht beliebig geschrumpft werden

Damit scheint es aber vorbei zu sein. „Derzeit haben wir nur noch eine Steigerung um zehn bis 15 Prozent pro Jahr“, sagt Stuart Parkin. „Das muss sich ändern.“ Parkin ist leitender Wissenschaftler für Magnetoelektronik am IBM-Forschungslabor im kalifornischen San Jose. Er ist zudem beratender Professor an der Universität Stanford. Seit 2014 ist er drittens Direktor am Max-Planck-Institut für Mikrostrukturphysik in Halle und viertens Professor an der Universität Halle-Wittenberg. Parkin hat die Verbesserung der Speichertechnik maßgeblich mitbestimmt und arbeitet daran, dass sie wieder an Tempo gewinnt.

Die gegenwärtige Stagnation bei den Datenträgern liegt an der Natur der Speichermaterialien. Die Bits auf einer Festplatte sind magnetische Bereiche. Eine Magnetisierung in die eine Richtung wird vom Computer als eine Eins gelesen, in die andere Richtung als Null. Für den Magnetismus und seine Richtung sind wiederum die einzelnen Atome des Materials zuständig. Jedes Atom agiert hier als unendlich kleiner Magnet. Sehr viele von ihnen müssen sich gemeinsam und aneinander ausrichten. Gemeinsam bilden sie eine winzige magnetische Grundeinheit, eine magnetische Domäne. Beliebig klein können die magnetischen Bits nicht werden. Unterhalb einer gewissen Größe ist der Gruppeneffekt der einzelnen Atome nicht mehr stabil, die Magnetisierung schwankt. Die Information, die magnetische Erinnerung der Bits, ginge sofort verloren.

Ein Laser heizt die zu beschreibende Stelle vor

Ein bisschen was lässt sich aber noch herausholen. Mit magnetisch stabileren Materialien können Bits noch weiter schrumpfen – das treibt die Forscher an. Allerdings entsteht damit ein neues Problem: Die derzeitigen Schreib- und Leseköpfe der Festplatten müssten dann mehr Energie aufwenden, um die Bits gezielt zu schreiben. Aber das ist gar nicht so einfach. Der Festplattenhersteller Seagate will mit einem Laser nachhelfen.

Der soll künftig das jeweils zu beschreibende Bit aufheizen, damit der Schreibkopf leichtere Arbeit hat. „Heat-assisted magnetic recording“ (HAMR) heißt das Verfahren, das die Daten nochmals um den Faktor 100 komprimieren kann. Die Entwickler haben damit bereits eine Speicherdichte von einem Terabyte pro Quadratzoll bewerkstelligt. „Wir halten sogar 50 Terabyte pro Quadratzoll für möglich“, sagt der Technische Leiter Mark Re. 2018 will Seagate die Massenproduktion der HAMR-Festplatten beginnen.

Eine Stufe weiter denken Physiker am Schweizer Paul-Scherrer-Institut. Sie erforschen, wie sich die Magnetisierungsrichtung einzelner Bits allein durch das rasche Aufheizen mit einem Laserpuls ändern lässt. Auf den mechanischen Schreib-Lese-Kopf ließe sich dann komplett verzichten. Denn obwohl sich dieser rasend schnell bewegt, ist das für die Festplatten der Zukunft noch immer zu langsam. Außerdem droht der Head-Crash: Der Schreib-Lese-Kopf kann auf die Platte aufsetzen und damit die Daten zerstören.

Die Ära der magnetischen Speicher ist längst nicht zu Ende

„Bewegliche Teile sind einfach ein Problem“, sagt Parkin. „Eine Störung wirkt sich hier katastrophal aus.“ Auch er will den Schreib-Lese-Kopf abschaffen. Obwohl er in der Vergangenheit dazu beigetragen hat, ihn zu perfektionieren. Für rund drei der neun Größenordnungen in der bisherigen Datenverdichtung ist Parkin mitverantwortlich. Noch bevor die Entdecker des Riesenmagnetowiderstands 2007 den Nobelpreis bekamen – darunter Peter Grünberg vom Forschungszentrum Jülich –, hatte Parkin eine Anwendung für diesen physikalischen Effekt gefunden. Er nutzte das Prinzip bereits 1997, um die Leseköpfe sprunghaft sensitiver zu machen, die magnetischen Bits konnten somit viel kleiner werden. Inzwischen steckt in den Leseköpfen bereits die nächste Entwicklung. Dank des quantenmechanischen Effekts der magnetischen Tunnelkontakte sind sie heute nochmals empfindlicher.

Natürlich werden Informationen nicht nur auf Festplatten abgelegt. Eine Alternative sind flash-basierte Solid-State-Platten (SSD). Sie arbeiten ähnlich wie USB-Sticks. Darin dienen Milliarden winziger Transistoren als Bits. Bei ihnen ist der Preis pro Bit deutlich höher als bei magnetischen Festplatten. Zudem sind solche elektronischen Bits nicht beliebig oft neu beschreibbar. Kurz: Die Ära der magnetischen Festplatten ist noch längst nicht zu Ende. Schon gar nicht für große Rechenzentren und die Bereitsteller von Cloud-Speichern.

„Wir wollten eine völlig neue Festplatte entwickeln, bei der die Bits zum Sensor wandern und nicht umgekehrt“, erzählt Parkin. Diese Überlegung brachte ihn zum Racetrack-Speicher. 2005 stellte er das Konzept vor und reichte das erste Patent ein. Mit den Racetrack-Speichern verfolgt Parkin die dritte Methode, wie sich magnetische Speicherbits manipulieren lassen. Statt Magnetismus – wie im Schreib-Lese-Kopf – oder einem Laserstrahl – wie es die Schweizer proben – lässt sich auch Elektrizität einsetzen.

Winzige Drahtschlaufen aus einem magnetischen Material

Parkins Racetrack-Speicher sind nanometerdünne Drähte aus einem magnetischen Material. Darin sitzen die magnetischen Bits alle hintereinander, wie Perlen auf einer Schnur. Der Sensor, der die Bits ausliest, liegt quer dazu und fest an einer Stelle. Bewegliche Teile gibt es nicht, die magnetische Strukturierung wird innerhalb des Nanodrahts vor- und zurückgeschoben. Die Bits wandern zum Sensor, ohne dass der Draht selbst sich bewegt.

„Tatsächlich bewegen sich die Domänenwände“, erläutert der Forscher. Die Angriffsfläche für die Bewegung sind diese Grenzen zwischen zwei Bits. Ein elektrischer Strom, also Elektronen werden durch den Draht geschickt. Das Besondere: Es handelt sich um polarisierte Elektronen, deren eigener magnetischer Spin gezielt ausgerichtet ist. Diese Elektronen manipulieren die Domänenwände, schieben diese vor und zurück. „Im Endeffekt sieht es dann so aus, als würden sich die magnetischen Bits vor- und zurückbewegen.“

Vor zwei Jahren haben Parkin und Kollegen einen Racetrack-Prototyp vorgestellt. Allerdings lagen dort die Nanodrähte flach auf der Unterlage. Künftig sollen sie als steile Us millionenfach in Reih und Glied stehen. So ließe sich der knappe Raum optimal ausnutzen und die Speicherdichte erheblich steigern.

Prinzip Parkhaus: Speicher werden übereinandergestapelt

„Racetrack-Speicher sind intrinsisch dreidimensional“, diese Feinheit ist dem Forscher wichtig. Denn auch Samsung hat einen Datenspeicher vorgestellt, den der Hersteller als dreidimensional bezeichnet. Das Produkt namens D3 V-NAND nennt die Firma „die größte technologische Veränderung der Speicherindustrie der letzten 30 Jahre“. Es ist ein Flash-Speicher, bei dem 32 Lagen übereinandergestapelt sind. Auch ein Parkhaus bietet auf demselben Grundstück mehr Fläche als ein Parkplatz. Aber, und das meint Parkin, die grundlegende Technik ist dabei noch immer die gleiche.

Bis es die neuen Speicher zu kaufen gibt, wird noch einige Zeit vergehen. Parkin meint, die Hersteller versuchten weiterhin am bekannten Konzept der Festplatte festzuhalten. „Es ist wohl ein psychologisches Problem. Weil es eine komplett andere Technologie ist, ist es für viele schwierig, sich den Racetrack als nächsten Entwicklungsschritt vorzustellen.“ Der Physiker ist optimistisch. In fünf bis sieben Jahren, schätzt er, werden seine Racetracks der Festplatte Konkurrenz machen. Mark Re von Seagate ist wesentlich pessimistischer: „Falls es das Konzept zur Marktreife schafft wird, dann erst in mehreren Jahrzehnten.“ Für die Festplatten, die Seagate für die nächsten Jahre entwickelt, sieht er die Racetracks darum noch nicht als Konkurrenz. | Text © Tagesspiegel - Laura Hennemann

Go to Editor View