Absolute Größenwerte und -verteilungen von Nanopartikeln
Dies zieht die Frage nach der Größe der eingesetzten Materialteilchen nach sich. Viele Forscher zeigen sich dabei nicht an einem absoluten Wert interessiert, sondern am Einfluss einer technologischen Prozedur auf die resultierende Größe ihrer Studienobjekte.
Manchmal ist die genaue Größe aber doch erforderlich, und es stellt sich die Frage nach den Absolutwerten.
Vorerst muss die Frage gestellt werden, wie Partikelgröße definiert ist – also je nach der angewandten Methode unterschiedliche Werte liefert. Beispiele: Radius oder Durchmesser; Trockenradius, Radius errechnet aus dem Diffusionskoeffizienten, Stokes-Radius, Trägheitsradius bei Polymeren, hydrodynamischer oder aerodynamischer Radius, etc.
Messmethoden
Viele Messmethoden wurden für die Größenbestimmung in Nanometer-Bereich entwickelt [1]. Die beste, weil mit dem größten Informationsgehalt gebotene Information stammt vom Elektronenmikroskop. Selbst wenn sich durch die Probenaufbereitung verschiedene Einschränkungen ergeben, hat man den Vorteil, auf einen Blick Aussagen über Größe, Form und Verteilungen zu erhalten. Da jeder Aufnahme ein Größenbezug zugeordnet ist, erhält man absolute Ergebnisse.
Allerdings ist auch der Messaufwand bei weitem höher, als bei anderen Methoden und oft für Routineaufgaben nicht gerechtfertigt. Trotzdem besteht auch hier die Notwendigkeit, einen Äquivalentdurchmesser anzugeben. Auch bleibt die Frage offen, ob der dargestellte Teil der Probe repräsentativ für die Gesamtheit ist.
Eine Möglichkeit ist es, den Feret-Durchmesser zu wählen, bei dem die Entfernung zwischen zwei Tangenten angegeben wird, die in Richtung des Mikroskop-Scans angelegt werden. Der Martin-Durchmesser gibt die tatsächliche Ausdehnung des Partikels in dieser Richtung an, wobei die Messstrecke so gewählt wird, dass oberhalb und unterhalb gleiche Flächen zu liegen kommen [2].
Der Begriff „Absolutwert“ steht nun einerseits im Gegensatz zu „relativ“, also zu einem Ergebnis, das durch Vergleich mit Referenzmaterialien kalibriert wird, oder aber zu „abgeleitet“ in Fällen, bei denen ein Messergebnis durch Anwendung eines Modelles oder Rechenalgorithmus‘ erreicht wird. Mit den Annahmen, die zur Auswahl dieses Modelles führen, wird jedoch das Ergebnis beeinflusst. Das Resultat einer Messung mittels dynamischer Lichtstreuung (DLS) ist die Auto-Korrelations-Funktion (ACF) [3]. Wird angenommen, dass es sich um eine einzelne Teilchengruppe handelt und demnach ein Lognormal-Modell zur Interpretation bzw. Größenberechnung ausgewählt, so wird als Resultat eine einzelne Größengruppe resultieren, egal wie die Verteilung tatsächlich aussieht. Wird hingegen angenommen, dass zwei oder mehrere Populationen unterschiedlicher Größe vorhanden sind und daher ein NNLS-Modell zur Berechnung herangezogen, so können als Resultat mehrere Gruppen gefunden werden, auch wenn eigentlich nur eine breit verteilte vorliegt. Auch können Artefakte wie Multiple Scattering zu verzerrten Resultaten führen.
Das Elektronenmikroskop liefert weiters den Trockendurchmesser der Partikel, zusätzlich dazu einen Hinweis auf die Form und den Aggregationsgrad. Messmethoden, die aus flüssigen Suspensionen messen, liefern den hydrodynamischen Durchmesser, also Durchmesser des Teilchens samt der fest gebundenen Hydratschicht. Alle Trennverfahren und „ensemble averaging“-Methoden, also Methoden, die eine sehr große Zahl an Teilchen erfassen, um statistisch gültig zu sein, treffen die Annahme, die Teilchen wären rund. Das Resultat ist daher der „sphärisch äquivalente Durchmesser“, also der Durchmesser, den sphärische Teilchen hätten, die die gleichen Messwerte ergeben würden [4].
Trennverfahren
Gute Auflösung der Größenverteilungen liefern auch Trennmethoden wie die GPC/SEC (Gel-Permeations-Chromatographie), FFF (Field Flow Fractionation) oder ähnliche, wobei entweder mit Proben bekannter Größe kalibriert werden muss oder neuerdings auch Detektoren eingesetzt werden, die bereits von sich aus Größenwerte liefern. Dies können MALLS-(Multi Angle Laser Light Scattering)Detektoren sein [5] oder DLS-(Dynamische Licht Streuung)Detektoren, die direkt hydrodynamische Radien liefern. Obwohl DLS eigentlich für stillstehende Suspensionen definiert ist, sind bei einem Beobachtungswinkel von 90 Grad zur Fließrichtung die Abweichungen bis zu etwa 0,5 ml/min tolerierbar. Damit wird aber die Chromatographiesoftware kompliziert, weil nicht mehr mit Standardprogrammen gearbeitet werden kann, die Analogwerte der Detektoren auswerten. Die Software muss nun die digitalen Größenwerte der Lichtstreudetektoren – teilweise aus vielen Winkeln – verarbeiten können.
Ensemble Averaging
Am häufigsten werden Bestimmungen mittels Lichtstreuverfahren durchgeführt, weil sehr rasch Resultate vorliegen. Laserbeugung (Diffraktion) ist für Teilchen im Mikrometer-Bereich geeignet, wo also der Durchmesser der Teilchen größer als die Lichtwellenlänge ist. Der ISO-13320:2009-Standard bezieht sich auf einen Bereich von 0,1…3000 µm und akzeptiert diesen als für die Messtechnik gültig. Das resultierende komplizierte Beugungsmuster (eigentlich das Messresultat) entsteht auf Grund der Interferenz der von verschiedenen Punkten der Oberfläche abgelenkten Strahlen und wird in einem sehr breiten Winkelbereich von zahlreichen Detektoren aufgenommen und interpretiert – mit Modellen, die von vielen Geräteherstellern nicht offengelegt werden. Resultate sind zwar gut reproduzierbar, zwischen verschiedenen Herstellern aber nicht immer vergleichbar [6].
Die dynamische Lichtstreuung (DLS) wird für Messungen im Nanometer-Bereich eingesetzt. Partikel in flüssigen Suspensionen werden durch die Brown‘sche Bewegung der Flüssigkeitsmoleküle umhergestoßen. Die mittlere Geschwindigkeit wird dabei als Diffusionskoeffizient bezeichnet, und die von vielen Partikeln gleichzeitig gestreuten Lichtsignale erreichen den Detektor. Die Bewegung führt zu einem Wechsel von konstruktiven und destruktiven Interferenzen, wobei aus der Geschwindigkeit der Lichtfluktuationen auf die Geschwindigkeiten der Teilchen – je größer, desto langsamer – geschlossen werden kann.
Vorteil all dieser Lichtstreuverfahren ist, dass ein Ergebnis sehr rasch zur Verfügung steht. Es darf aber nicht vergessen werden, dass bei der Laser-Diffraktion das tatsächliche Resultat eben das Streumuster ist. Bei der dynamischen Lichtstreuung ist es die Auto-Korrelationsfunktion. Die anschließend erfolgende Umrechnung in Durchmesser beginnt mit der Wahl eines Modelles und danach die Anwendung der damit verbundenen Rechenalgorithmen. Im günstigen Fall stimmen die Annahmen. Hat man Pech, dann ist das Resultat eine gut reproduzierbare Hausnummer. Die Reproduzierbarkeit gaukelt Richtigkeit vor. Nimmt man zum Beispiel in der dynamischen Lichtstreuung eine breite Größenverteilung an und wählt ein Lognormalmodell, dann wird eine einzelne Größenklasse erzwungen. Wählt man allerdings ein Multi-Size-Modell, dann wird man mit großer Wahrscheinlichkeit zwei weit auseinander liegende Größenklassen bekommen. Kaum ein Hinweis, was davon richtig ist. Dabei können ohnehin nur Populationen unterschieden werden, deren Größen mindestens im Verhältnis 1 : 2 auseinander liegen – vorausgesetzt, die Streuintensitäten der beiden Gruppen sind ähnlich intensiv. Das heißt: Im Verhältnis müssen wesentlich mehr kleinere Teilchen vorhanden sein. Dies deshalb, weil die Streulichtintensität etwa mit der sechsten Potenz des Durchmessers zunimmt. Ein Signal einer Größengruppe von 40 nm bringt eine Signalintensität von nur 1/1000000 des Signals einer gleich großen Population von 400 nm. Kein Detektor hat einen Dynamikbereich, der groß genug wäre, um dies aufzulösen. Die enorme Streuintensität großer Partikel erklärt auch den gravierenden Einfluss von „Dust-Partikeln“ und die Wichtigkeit von sauberem Arbeiten.
Verständlich, dass Lichtstreuverfahren für manche Anwendungen nicht ausreichen, wo Informationen über die absolute Größe notwendig sind.
Sedimentationsanalysen
Eines der ältesten Verfahren, die absolute Größe von Teilchen im Mikrometer-Bereich zu bestimmen, ist die Sedimentation. Der Sedigraph (Trademark Micromeritics) wurde erstmals 1967 als kommerzielles System angeboten. In einem vertikalen Zylinder setzen sich suspendierte Teilchen ab, die Massenanteile werden mittels Röntgenstrahlung niedriger Energie erfasst. Aber auch diese und alle ähnlichen Methoden gehen von einigen Annahmen aus, die mehr oder weniger erfüllt sind:
Die Partikel werden als sphärisch und fest mit glatter Oberfläche angenommen. Auch wird angenommen, dass die Teilchen unbeeinflusst durch die anderen sedimentieren, was niedrige Konzentrationen unter einem Volumsprozent erfordert. Weiters vorausgesetzt wird, dass beim Sedimentationsvorgang Bedingungen vorliegen, die Absetzen unter laminarer Strömung erlauben, was üblicherweise bei Reynoldszahlen unter 0,2…0,3 der Fall ist. Der Durchmesser errechnet sich dabei aus dem Stokes-Gesetz (gültig für laminare Strömung während der Sedimentation), erweitert für Zentrifugalsedimentation zu:
Liegt die Größe der Partikel deutlich unter der Mikrometergrenze, reicht die Schwerkraft nicht mehr aus, um vernünftige Sedimentationszeiten zu erreichen. Hinzu kommt, dass bei langen Messzeiten der Einfluss der Diffusion (Brown‘sche Molekularbewegung) einen zunehmenden Einfluss ausübt, so dass die Werte in Richtung kleiner scheinender Partikel verzerrt werden. Die Lösung ist die Zentrifugalsedimentation in Analysenzentrifugen [7].
Sieht man von den Ultrazentrifugen ab, so gibt es zwei Lösungen, unterschieden durch die Art der Detektion: Licht- oder niedrigenergetische Röntgenstrahlung. Beide Möglichkeiten haben ihre Vorteile und Limitationen: Auf die Vorteile der Röntgendetektion wurde oben schon hingewiesen: Hier absorbiert nur der Atomkern. Dies bedeutet aber, dass der Kern eine gewisse Mindestgröße haben muss, Röntgendetektion also nur ab etwa Al oder Si aufwärts anwendbar ist. Organisches Material absorbiert nicht, was die Technik auf Metalle, deren Verbindungen und schwerere Elemente beschränkt. Wichtig dabei ist das Wort „absorbiert“ – die Extinktion des Messstrahls hat keinen Streuanteil. Daher sind für die Messung etwas größere Probenanteile von wenigen % Materialanteilen nötig.
Lichtzentrifugen hingegen messen die Extinktion des Lichtstrahls, also die Summe aus Absorption und gestreutem Anteil. Die ermittelten Größenwerte sind direkt korrekt. Da aber der Streuanteil abhängig von der Größe der Teilchen ist, muss zur korrekten Bestimmung der Mengenverteilung bei Lichtdetektion mittels Mie-Korrektur berichtigt werden. Diese Mie-Korrektur ist meist in den Programmen hinterlegt, genau genommen aber eine Funktion der optischen Eigenschaften des Probenmaterials.Die Zentrifugalsedimentation bietet dabei mehrere große Vorteile: Erstens eine bessere Größenauflösung. Es wurde bereits darauf hingewiesen, dass bei den Lichtstreumethoden eine Auflösung von Größenverhältnissen 1 : 2 bestenfalls möglich ist unter der Voraussetzung, dass die Populationen ähnlich intensiv streuen. Dies ist hier nicht notwendig, daher gibt es auch kaum Probleme mit Störpartikeln. Daraus ergibt sich gleichzeitig der Vorteil, dass der Größenbereich einer einzelnen Probe wesentlich breiter sein kann.
Mittels Zentrifugalsedimentation können Größen unterschieden werden, die sich um weniger als 1 : 1,2 unterscheiden. Bild 4 zeigt eine Latexprobe von Teilchen mit einem Durchmesser von 495 nm, die nicht re-suspendiert bzw. stabilisiert wurde. Deutlich unterschieden werden die Aggregate aus zwei oder drei Partikeln – eine Auflösung, die mit Lichtstreuverfahren niemals erreichbar wäre.
Limitierend ist aber die Tatsache, dass die Zeitunterschiede für die Sedimentation sehr unterschiedlicher Teilchen sehr groß sind. Wird hohe Sedimentationskraft durch hohe Drehzahl eingesetzt, sind große Partikel sofort ausgeschieden, ohne die Größen richtig erfassen zu können. Wird zur genauen Bestimmung großer Teilchen mit geringer Drehzahl gearbeitet, dauert die Sedimentation kleiner Teilchen sehr lange – mehrere Stunden sind nicht ungewöhnlich. Zur Lösung dieser Schwierigkeit gibt es mehrere Ansätze. Erstens können mit derselben Probensuspension zwei Läufe durchgeführt werden. Einer mit geringer Drehzahl zur Auflösung großer Partikel und nach Resuspension ein zweiter mit hoher Drehzahl zur Bestimmung der sehr kleinen. In der Software werden diese beiden Läufe dann zu einer einzigen Analyse vereinigt.
Eine weitere Möglichkeit ist es, am Anfang mit geringer Drehzahl zu arbeiten und später sukzessive die Geschwindigkeit zu erhöhen, was als „speed ramping“ bezeichnet wird. Dies ist mit geringem instrumentellen Aufwand möglich, weil die Zentrifuge ohnehin eine Drehzahlregelung haben muss, um die Sedimentationskraft zu berechnen. Großer Nachteil dieser Technik ist es allerdings, dass dabei der Vorteil einer Absolutbestimmung verloren geht, weil nicht mehr bekannt ist, wie weit Partikel bereits sedimentiert sind und welche Kraft daher wirkt. Wird mit dieser Technik gearbeitet, muss der Lauf durch eine Kalibration mit bekannten Teilchen (gleicher Größe und Dichte) geeicht werden.
Schließlich gibt es die Möglichkeit, nach einer kurzen Eingangsphase, in der große Teilchen bestimmt werden können, den Detektorkopf entgegen der Sedimentationsrichtung zu bewegen. Dies entspricht einer Kompression einer langen Sedimentationsdauer auf einen Bruchteil dieser Zeit. Da zu jedem Zeitpunkt bekannt ist, an welcher Radialposition gemessen wird, bleibt der Vorteil einer Absolutmessung erhalten.
Verteilungsgewichtung
Auch wenn Sedimentationszentrifugen absolute Größenresultate geben, bleibt noch ein wichtiger Punkt, der oft vernachlässigt wird: die Gewichtung des Resultats. Eine Größenverteilung kann nach Anzahl, Oberfläche oder Volumen gewichtet angegeben werden. Anzahlgewichtete Interpretation wäre die Antwort auf die Frage: Welchen Durchmesser hat die größte Anzahl der Teilchen? Oberflächengewichtet dargestellt beantwortet die Frage: Welchen Durchmesser haben die Teilchen, die den größten Oberflächenanteil bieten? Volumengewichtet die Frage: Welchen Durchmesser haben die Teilchen, in denen die größte Materialmenge enthalten ist? Bei den Lichtstreuverfahren, die ja die Streuintensität der Partikel messen, käme noch die Intensitätsgewichtung hinzu.
Nur bei einer Verteilung, bei der alle Teilchen die genau gleiche Größe haben, stimmen die drei bzw. vier Werte überein. In der Praxis sind die Verteilungen aber breiter und mit zunehmender Polydispersität steigt auch die Differenz zwischen den Resultaten der einzelnen Gewichtungen. Dies kann schön an einem theoretischen Beispiel gezeigt werden (siehe Tab. 1). Die entsprechende graphische Darstellung (normiert) der Verteilungen zeigt Bild 5.
n-gewichtet ergibt etwa 0,5 nm, volumengewichtet etwa 2 nm und intensitätsgewichtet wären es etwa 3 nm Teilchengröße. Dabei darf man nicht übersehen, dass – obwohl völlig unterschiedliche Werte – alle drei richtige Resultate der selben Messung sind, nur unterschiedlich interpretiert. Diese Tatsache scheint nur weniger gravierend zu sein, weil bei Testmessungen mit sehr eng verteilten, monomodalen Proben, wie z.B. einem Testlatex, alle drei Gewichtungen auf den selben Wert fallen und die Divergenzen nicht auffallen.
In der Praxis zeigt sich, dass in vielen Fällen die Art der Gewichtung nicht hinterfragt wird und es dem Betreiber des Messinstruments überlassen wird, welche Angabe er als Resultat ausgibt. Hier empfiehlt es sich, die Volumengewichtung zu wählen, weil die Antwort auf die Frage: „In welchen Größen liegt mein Material vor?“ sinnvoll ist. Bei Lichtstreuverfahren liegt das Volumen auch am nächsten zur eigentlichen Messgröße, der Intensitätsverteilung. Der Rechenfehler bzw. die Ungenauigkeit aus Abweichungen der tatsächlichen Gegebenheiten von den Annahmen wird aber umso größer, je weiter man sich von der eigentlichen Messgröße entfernt. Daher ist beim Volumen die bestmögliche Übereinstimmung zwischen den Resultaten der verschiedenen Messmethoden zu erwarten.
Zusammenfassung
Elektronenmikroskopie bietet mehr Information als andere Methoden der Größenanalyse, Lichtstreuverfahren liefern im Vergleich zur Zentrifugalsedimentation wesentlich schneller Resultate. Auf Grund der Tatsache, dass Partikelzentrifugen aber ohne Kalibration oder Modellierung Absolutwerte mit sehr guter Größenauflösung liefern, sind sie dennoch ein wichtiges Werkzeug für verlässliche Größenbestimmungen. Dabei benötigen Geräte mit Niedrigenergie-Röntgendetektion nicht einmal eine Mie-Korrektur, um richtige Verteilungen zu erhalten.
Werden Größenwerte für Partikel genannt, so ist – neben der Angabe ob es sich um Radius oder Durchmesser handelt – auch wichtig, wie die Größenverteilung gewichtet ist. Im Zweifelsfall sollte eine Volumsgewichtung angegeben werden, die die Frage beantwortet: „In welcher Größe liegt der Großteil des Probenmaterials vor?“
Literatur
Howard G. Barth (Editor); Modern Methods of Particle Size Analysis; John Wiley & Sons Inc.; New York, 1984.W.H.Walton; Feret‘s Statistical Diameter as a Measure of Particle Size; Nature 162; 1948.Walther Tscharnuter; Photon Correlation Spectroscopy in Particle Sizing; Encyclopedia of Analytical Chemistry; R.A.Mayers (Editor); John Wiley & Sons; 2006.Bruce B. Weiner; What is Particle Size; Brookhaven Instruments White Paper; Nov. 2010.Peter Kilz (PSS GmbH. Mainz); GPC-Analytik von (Bio)Polymeren mit Lichtstreudetektion; LaborPraxis; Mai 2003.Frank M. Etzler, Richard Deanne (Boehringer Ingelheim); Particle Size Analysis: A Comparison of Various Methods II; (USA. 1997).M. Missbach; Sedimentationszentrifuge zur Größenanalyse von Nanopartikeln; Fortschrittsberichte der DKG; Bd. 20 (2006), Heft 1 Erlangen.Bruce B. Weiner; What is Particle Size Distribution Weighting; Brookhaven Instruments White Paper; June 2011.
LaborChemie GmbH, Wien, Tel. 0043-1-8882601, E-Mail: mmissbach@laborchemie.at
Media Contact
Alle Nachrichten aus der Kategorie: Medizintechnik
Kennzeichnend für die Entwicklung medizintechnischer Geräte, Produkte und technischer Verfahren ist ein hoher Forschungsaufwand innerhalb einer Vielzahl von medizinischen Fachrichtungen aus dem Bereich der Humanmedizin.
Der innovations-report bietet Ihnen interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Bildgebende Verfahren, Zell- und Gewebetechnik, Optische Techniken in der Medizin, Implantate, Orthopädische Hilfen, Geräte für Kliniken und Praxen, Dialysegeräte, Röntgen- und Strahlentherapiegeräte, Endoskopie, Ultraschall, Chirurgische Technik, und zahnärztliche Materialien.
Neueste Beiträge
Neue Maßstäbe in der Filtertechnik
Aerosolabscheider „MiniMax“ überzeugt mit herausragender Leistung und Effizienz. Angesichts wachsender gesetzlicher und industrieller Anforderungen ist die Entwicklung effizienter Abgasreinigungstechnologien sehr wichtig. Besonders in technischen Prozessen steigt der Bedarf an innovativen…
SpecPlate: Besserer Standard für die Laboranalytik
Mehr Effizienz, Tempo und Präzision bei Laboranalysen sowie ein drastisch reduzierter Materialverbrauch: Mit der SpecPlate ersetzt das Spin-off PHABIOC aus dem Karlsruher Institut für Technologie (KIT) durch innovatives Design gleich…
Neue Moleküle für neue Materialien
Graduiertenkolleg in der Chemie erhält millionenschwere Förderung der DFG. So genannte kovalente Bindungen sind das Rückgrat unserer Welt. Diese starken Bindungen – wie zum Beispiel zwischen zwei Sauerstoffatomen, die sich…