• Was versteht man unter dem Begriff Skalierung?
  • Welche Bedeutung hat die Methode der Skalierung für die Nanowissenschaften?
  • Welche physikalischen Größen sind für Nanotechnologien von Interesse?
  • Wie ändern sich physikalische Größen durch Skalierung eines Objektes?
  • Wo liegen die Grenzen der Skalierung von Objekten?

Im Jahr 2015 erschien der Kinofilm Ant-Man, in welchem Paul Rudd als Wissenschaftler einen Anzug entwickelt, der es ihm ermöglicht, sich selbst auf die Größe einer Ameise zu schrumpfen. Das ist natürlich Science-Fiction, jedoch ist die Idee der systematischen Verkleinerung von Objekten in der Naturwissenschaft und Technik ein weit verbreitetes Konzept. Ein Beispiel dafür sind Computerchips, die im Wesentlichen aus miniaturisierten Schaltkreisen bestehen. Die Kombination vieler solcher Chips ist die Basis unserer modernen Unterhaltungselektronik. Durch die stetig steigenden Anforderungen an höhere Übertragungsraten, mehr nutzbarem Speicher, höherer Rechenleistung, etc. ist die Industrie ständig gefordert, diesen Ansprüchen gerecht zu werden. Da jedoch auch das Design und die Handhabung solcher Geräte sehr wichtig ist, müssen die Rechenchips ihre Größe bei steigender Leistungsfähigkeit zwangsweise auch verringern. Der Schlüssel dazu ist die sukzessive Verkleinerung der Schaltkreise auf Computerchips - die Skalierung des Systems.

Ein Beispiel

Computerchips setzten sich aus integrierten Schaltkreisen (ICs, engl.: integrated circuits) zusammen. Das Kernstück dieser Technologie sind Transistoren - elektrische Schalter, die den Stromfluss regeln. Die ersten Patente für Transistoren wurden Mitte der ersten Hälfte des 20. Jahrhunderts angemeldet. Die ersten funktionierenden Geräte wurden etwa 20 Jahre später präsentiert. Die Entwicklung von Transistoren und Computern geriet ins Rollen und im Jahre 1965 bestanden Computerchips aus etwa 30 Transitoren. 1971 waren es bereits 2000 und heutige Rechenchips bestehen aus über 40 Millionen solcher Transistoren. Aber bereits im Jahr 1965 hat Gordon E. Moore, der Mitbegründer der für ihre PC-Microprozessoren bekannten Firma Intel Corporation, vorausgesagt, dass sich die Anzahl an Transistoren pro Chip alle 1,5 bis 2 Jahre verdoppeln wird. Die nachstehende Grafik stellt dieses Gesetz dar.

mooresLawMoore'sches Gesetz - Entwicklung der Anzahl der Transistoren pro Computerchip vs. Produktionsjahr.
Quelle: commons.wikimedia, User Wgsimon, CC BY-SA 3.0

In der Abbildung kann man erkennen, dass die letzten Einträge im Jahr 2011 angesiedelt sind. Es gibt auch andere Grafiken die den Trend bis heute aufzeichnen, doch seit etwa 5 Jahren weicht dieser vom Moore'schen Gesetz ab.

Aufgabe 1: Aus wie vielen Transistoren müsste ein Chip nach dem Moore'schen Gesetz im Jahr 2020 bestehen? Gehe davon aus, dass im Jahr 2000 etwa 40 Millionen Transistoren auf einem Chip vorhanden sind und innerhalb 1,5 Jahren sich die Anzahl verdoppelt.

Die Verkleinerung von Computerchips und Transistoren ist mit großem technologischem Aufwand verbunden. Neben der Herausforderung Transistoren gezielt auf einem Chip zu platzieren, muss natürlich auch noch gewährleistet werden, dass diese danach auch funktionieren. Zur Zeit lassen sich Computerbauteile mit Abmessungen bis zu 14 nm herstellen. D.h. die Prozessortechnologie spielt sich schon im Nanometerbereich ab und damit treten nun auch neue Probleme auf. Es wird immer schwieriger Halbleiter-Transistoren zu verkleinern und dabei auch deren Zuverlässigkeit zu gewährleisten, denn bei diesen kleinen Strukturen beginnt sich wieder die Quantenphysik bemerkbar zu machen. Zum Beispiel sind Elektronen in der Lage, kleine Schalter einfach zu überspringen (aufgrund ihrer thermischen Bewegung) und daher kann der Stromfluss nicht mehr präzise kontrolliert werden. Weiters kommt hinzu, dass elektrische Bauteile auch Verlustenergie in Form von Wärme produzieren und abgeben und somit natürlich auch gekühlt werden müssen. Es ergibt sich ein Konflikt zwischen Erhöhung der Transistoranzahl, was eine Erhöhung der Verlustenergie bedeutet, sowie den Möglichkeiten zur Kühlung dieser Bauelemente.

Eine Möglichkeit, diese Problematik in der Computerindustrie zu lösen, kommt auch wieder aus der Nanophysik. Man kann nämlich metallische Nanostrukturen dazu benutzen, um Information nicht mehr mit Elektronen sondern mit Licht zu übertragen. Das eröffnet ganz neue Möglichkeiten und mit dieser neuen Generation von optischen Computerchips könnte man wesentlich mehr Information in kürzerer Zeit übertragen.

Die Grundlage für diese Wechselwirkung zwischen Licht und metallischen Nanoteilchen sind sogenannte Plasmonen, die im nächsten Artikel erklärt werden.

 replica firstTransistorReplika des ersten Transistors von Shockley, Bardeen und Brattain von 1947/48.
Quelle: commons.wikimedia, User Stahlkocher, CC BY-SA 3.0

Die Änderung physikalischer Größen

Mathematische Formeln sind eines der Handwerkszeuge in der Physik, die es den Wissenschaftlern erlauben, die wichtigen Größen zu identifizieren. Welche Größen das sind, hängt auch vom jeweiligen Problem hinter der Formel ab, z.B. bei der Entwicklung von neuen Materialien für Solarzellen interessiert man sich für die Effizienz der Stromgewinnung aus Sonnenlicht und mechanische Eigenschaften sind eher nebensächlich.

Doch in welchem Zusammenhang stehen nun diese Größen mit der Nanoskala? Die Antwort ist: Das hängt von der physikalischen Größe ab. Verschiedene Phänomene ändern sich unterschiedlich wenn man die Größe des zugehörigen Systems ändert.

Ein Beispiel: Eine Pendeluhr besteht aus einem Stab mit der Länge $L$, an dem an einem Ende eine Masse $m$ hängt. Das andere Ende ist drehbar verankert.

PendelSchematische Darstellung einer Pendeluhr.
Quelle: Alexander Gorfer (quant.uni-graz.at), (CC BY-SA 4.0)

 

Die Periodendauer $T$ bzw. die Frequenz $f$ mit der das Pendel schwingt, berechnet sich durch:

$$ T = 2 \pi \sqrt{\frac{L}{g}}, \qquad f = \frac{1}{T} = \frac{1}{2 \pi} \sqrt{ \frac{g}{L}},$$

$g$ steht für die Erdbeschleunigung und beträgt 9,81 m/s$^{2}$. Versuche das nächste Beispiel zu lösen, um selbst zu verstehen, was mit der Skalierung gemeint ist. Tipp: Bevor du beginnst Zahlenwerte einzusetzen, versuche doch die beiden Formeln zu skizzieren (z.B.: $T$ vs. $L$) und abzuschätzen welche Ergebnisse du erwarten kannst wenn du zwei verschieden Werte einsetzt (wird $T$ größer oder kleiner wenn du $L$ änderst).

Aufgabe 2: Berechne die Schwingungsdauer $T$ und die Frequenz $f$ für ein Pendel der Länge $L_{1}$ = 1 m, $L_{2}$ = 1 cm, $L_{3}$ = 1 mm und $L_{4}$ = 1 nm und vergleiche $T$ und $f$ untereinander. Was kannst du daraus schließen?

Wie du sicherlich festgestellt hast, ergibt sich für kleine Pendellängen eine geringe Periodendauer $T$ und dadurch eine große Frequenz $f$. Im Fall der Pendeluhr wird dies dadurch ausgedrückt, dass die Periodendauer $T$ proportional zu $\sqrt{T}$ und die Frequenz $f$ proportional zu $1/\sqrt{L}$ ist, kurz:

$$ T \sim \sqrt{L} , \quad f \sim \frac{1}{\sqrt{L}}.$$

 

Ein weiterer wichtiger Punkt hat mit dem Verhältnis zwischen der Oberfläche und dem Volumen von Objekten zu tun. Jedes Objekt das wir kennen hat eine Oberfläche, wobei wir als Oberfläche jene Atome eines Materials bezeichnen, die im direkten Kontakt mit der Umwelt stehen. Die Anzahl dieser Atome ist meistens verschwindend klein verglichen mit der Anzahl jener, die sich innerhalb eines Materials verstecken. Doch wenn man Objekte schrumpft, ändert sich das Verhältnis zwischen der Anzahl der Atome an der Oberfläche und der Anzahl der Atome im Inneren.

Lasst uns das kurz skizzieren - nachstehend eine Skizze eines Würfels mit Kantenlänge $a$.

WurfelSkizze eines Würfels mit Kantenlänge $a$.
Quelle: Alexander Gorfer (quant.uni-graz.at), (CC BY-SA 4.0)

Erinnern wir uns an die Formeln für die Oberfläche und das Volumen eines Würfels: Die Gesamtoberfläche ergibt sich aus der Summe der 6 Seiten mit einer Fläche von jeweils $a^{2}$, also $O = 6 a^{2}$. Das Volumen ist einfach gegeben als $V = a^{3}$.
Bildet man nun die Verhältnisse zwischen der Oberfläche und dem Volumen der jeweiligen Objekte, also $O/V$, ergibt sich folgender Zusammenhang:

$$ \quad \frac{O_{W}}{V_{W}} = \frac{6}{a}.$$

Graphisch dargestellt sieht das so aus:

surfVolRatio cubeVerhältnis von Oberfläche zu Volumen eines Würfels.
Quelle: Florian Atteneder (quant.uni-graz.at), CC BY-SA 4.0.

Was kann man hier erkennen? Das Verhältnis $O/V$ für einen Würfel nimmt zu wenn die Kantenlänge $a$ abnimmt. Das heißt, dass die Oberfläche im Vergleich zum Volumen weniger stark schrumpft. Daraus kann man schließen, dass auch das Verhältnis zwischen der Anzahl an Atomen an der Oberfläche gegenüber jenen im Inneren eines Würfels abnimmt.

Effekte, die von den Atomen an der Oberfläche eines Körpers bestimmt werden, können daher stärker werden und Auswirkungen kompensieren oder gar unterdrücken, die durch die innere Struktur bestimmt werden. In unserer alltäglichen Umgebung tritt dieses Phänomen selten auf. Wenn man aber Objekte auf die Nanoskala skaliert, ergeben sich Eigenschaften die man von makroskopischen Objekten nicht kennt, obwohl beide Objekte die gleiche chemische Zusammensetzung haben. Ein Beispiel hierfür ist Graphen, welches später in Artikel 4: Nobelpreis 2010 - Graphen diskutiert wird.

Aufgabe 3: Berechne das Verhältnis von Oberfläche und Volumen $O/V$ für a) eine Kugel mit Radius $a$ und b) für eine Pyramide mit quadratischer Grundfläche mit Seitenlänge $a$ und Höhe $a$. Vergleiche die Ergebnisse untereinander und skizziere sie.

Zusammenfassend kann man sagen, dass man durch die Skalierung neue Eigenschaften von Materialien zum Vorschein bringen kann. Wie sich Effekte mit der Abmessung eines Objektes ändern, hängt davon ab, wie sich die physikalischen Zusammenhänge entwickeln (z.B. eben das Verhältnis von Oberflächeninhalt zum Volumen eines Objektes). Es werden aber nicht nur physikalische Effekte von der Skalierung beeinflusst, auch chemische Eigenschaften oder das Verhalten von Bioorganismen kann sich drastisch ändern, wenn man skaliert. Das ist einer der Gründe, weshalb die Nanowissenschaften ein interdisziplinäres Forschungsfeld sind in dem PhysikerInnen, ChemikerInnen, BiologInnen, IngenieurInnen, und viele weitere WissenschaftlerInnen zusammenarbeiten können.

Eigentlich stellt sich jetzt jedoch auch die Frage, wie weit man Objekte runter skalieren kann? Gibt es eine untere Grenze?

Grenzen der Skalierung

Wie wir wissen, ist Materie aus Atomen aufgebaut und die Größenordnung eines Atoms beträgt grob etwa 0,1 nm. Kommen wir auf das eingangs diskutierte Beispiel über Transistoren zurück: Da ein Transistor aus elektrischen Schaltungen besteht, kann er nicht aus einem einzigen Atom aufgebaut werden. Somit haben wir schon eine offensichtliche untere Grenze für die Skalierung von herkömmlichen Transistoren gefunden.

In Wirklichkeit treten die ersten Probleme jedoch bereits ab etwa 1-10 nm auf. Der Grund ist wieder das im Einleitungsartikel (Motivation) angesprochene Auftreten von Quanteneffekten. Eines der Grundgesetze der Quantenphysik ist die sogenannte Heisenbergsche Unschärferelation, eine Formel für die Genauigkeit, mit der man den Impuls (= Masse mal Geschwindigkeit) und die Position eines Teilchens messen kann. Genauer gesagt beschreibt $\Delta p$ die Messunsicherheit des Impulses und $\Delta x$ die Messunsicherheit der Position. Die Unschärferelation besagt, dass das Produkt dieser beiden Größen nicht kleiner als eine bestimmte Zahl sein kann, kurz:

$$ \Delta p \cdot \Delta x \ge \frac{\hbar}{2}. $$

$\hbar$ bezeichnet eine Naturkonstante - das Planck'sche Wirkungsquantum. Eine Konsequenz dieser Gleichung ist, dass sie z.B. einem Elektron in einem Transistor erlaubt, unkontrolliert Barrieren zu überspringen. Dadurch kann ein kontrollierter Stromfluss nicht mehr sichergestellt werden und die Zuverlässigkeit von Transistoren verringert sich.

Es gibt noch weitere Beispiele, wo die Grenzen der Skalierung erreicht werden. Da man hierfür aber zum Teil ein tieferes Grundverständnis von physikalischen Zusammenhängen benötigt, verzichten wir an dieser Stelle auf eine weitere Diskussion (siehe auch weiterführende Literatur).

Abschließend kann man also festhalten, dass die kleinsten Bauteile für eine Technologie zumindest die Größe von Nanoobjekten haben müssen - das ist einer der Gründe, warum die Nanophysik für revolutionäre neue Anwendungen so interessant ist.

 Weiterführende Literatur und Beispiel zum Thema Skalierung: 

- SCHODEK, Daniel L.; FERREIRA, Paulo; ASHBY, Michael F. Nanomaterials, nanotechnologies and design: an introduction for engineers and architects. Butterworth-Heinemann, 2009 - Kapitel 1

- WOLF, Edward L. Nanophysics and nanotechnology: an introduction to modern concepts in nanoscience. John Wiley & Sons, 2015 - Kapitel 2

- Nobelpreis Chemie 2016 - Die kleinste Maschine der Welt, www.faz.net, www.nobelprize.org

Suche

Seite drucken

Diese Seite teilen

Nach oben