DECHEMA-Blog

"Wir müssen einen hochkomplexen Parameterraum beherrschen"

Erstellt von Kathrin Rübberdt, 24.Mai 2021

Der DECHEMA-Preis 2020 geht an Prof. Dr. Doris Segets von der Universität Duisburg-Essen für ihre wegweisenden Arbeiten zur Entwicklung einer Verfahrenstechnik ultrafeiner Partikel. Die Jury lobte dabei besonders die Kreativität und Vielseitigkeit, mit der die Forscherin neue Anwendungsfelder für diese Materialien erschließt. Die Verleihung findet am 5. Juli statt und wird Online übertragen.

In unserem zweiteiligen Interview befragten wir die Preisträgerin über ihre Arbeit, welche Herausforderungen die Partikeltechnik stellt und was sie antreibt. Im ersten Teil berichtet sie unter anderem über die Rolle von Nanopartikeln in der Energietechnik und die Hürden, die dafür zu überwinden sind.

Welche Rolle spielen Nanopartikel für Energieanwendungen?

Wir kennen sehr viele Materialien, die grundsätzlich für den Einsatz in Batterien, Elektrolyseuren oder Brennstoffzellen geeignet sind, schon länger. Jetzt arbeitet man daran, sie inkrementell zu verbessern, damit man sie in Elektroden in Schichten einbauen und so die Performance und die Stabilität verbessern kann. Sehr schwierig ist es, wirklich neue Materialien in diese Anwendungen einzubringen. Das hat vielschichtige Gründe:
Der eine ist, dass es neue Materialien oft nur in zu geringen Mengen gibt. Meistens stammen sie aus Synthesen, die im Millilitermaßstab stattfinden. Deshalb ist eine Aufgabe für die Verfahrenstechnik, mit der ich mich auch beschäftige, wie man solche Laborprotokolle in größere Dimensionen überführen kann. Es ist wichtig, dass man auf Device-Ebene testet. Dafür braucht man aber nicht nur Milligramm-, sondern mindestens Gramm- , besser noch möglichst schnell Kilogrammmengen.
Das zweite Problem ist, dass es relativ wenige Expertinnen und Experten gibt, die solche neuen Materialien handhaben können. Was für großskalige Teilchen gilt, funktioniert bei neuen Materialien nicht so gut, denn wegen der riesigen Grenzflächen kommen Wechselwirkungen ins Spiel. Dafür muss man ganz anders denken, vielleicht auch chemischer, als man es in einem rein apparateseitig motivierten Ansatz machen würde. Man muss also Ingenieurwesen und Chemie zusammenzubringen, um solche Materialien auch im Prozess handhaben und reproduzierbar kontrolliert auf Device-Ebene testen zu können.

Welche Rolle spielen Nanopartikel auf Device-Ebene?

In dem Fall, über den wir gerade sprechen, sind es die aktiven Zentren. Wenn Sie aber zum Beispiel eine Brennstoffzelle nehmen, brauchen Sie nicht nur ein elektrochemisch aktives Partikel, sondern einen technischen Katalysator. Das ist derzeit ein Nanomaterial, häufig Platin oder ein anderes Edelmetall, auf einem Kohlenstoffträger; hier effizientere und günstigere Lösungen für deren Prozessierung zu finden, ist eine Aufgabe. Dann brauchen Sie außerdem ein Ionomer für die Protonenleitfähigkeit, ggf. weitere Additive und einen Applikations- und Trocknungsschritt, damit eine strukturierte Schicht auf einer Membran entsteht, in die z.B. Gase als Edukt eindringen können. Gleichzeitig müssen Sie die Hydrophobizität steuern, um z.B. Wasser, das während der Reaktion entsteht, zu entfernen. Und sie brauchen eine gute Wärmeleitung, damit das System nicht überhitzt. Wir stellen also extrem große Anforderungen an so eine Schicht, bzw. Schichten, weil wir immer eine Kathode und eine Anode brauchen. Die Eigenschaften dieser Schichten setzen sich zusammen aus der Summe der einzelnen Komponenten, deren Wechselwirkungen untereinander und dem Prozess. Daraus ergibt sich ein hochkomplexer Parameterraum, den es zu beherrschen gilt.

Von was für Materialien sprechen wir da?

Die „coolen“ Sachen sind meist komplexere Verbindungen, z.B. Alloys aus ganz vielen Komponenten. In der Fotovoltaik oder bei LEDs sind es üblicherweise Kern-Schale-Teilchen, oder oft auch gradierte Teilchen, die nicht aus einem definierten Kern und einer Hülle bestehen, sondern einen stofflichen Gradienten aufweisen. Dann sind es dotierte Teilchen und formanistrope Partikel wie Stäbchen oder Aggregate aus Gasphasenprozessen mit einer schon fast unbeschreiblichen Struktur - keiner weiß genau, wo die Festkörperbrücke anfängt und wo das einzelne Partikel endet – und das macht es natürlich schwierig.

Bevor Sie sich den Energieanwendungen zugewendet haben, haben Sie sich intensiv mit den Grundlagen der Partikeltechnik beschäftigt, unter anderem auch mit Hochdurchsatztechnologien. Wie kann man diese einsetzen?

Ich habe mich zehn Jahre lang – also eigentlich seit meiner Diplomarbeit – mit wohldefinierten Modellteilen beschäftigt, um grundlegende Fragen zu verstehen: Wie muss man denken, wie kann man solche Teilchen charakterisieren, und wie kann man sie in größerem Maßstab herstellen? Nicht zuletzt mit dem Wechsel nach Duisburg bin ich auf die „dreckige“ Seite gewandert und arbeite mit realen Aggregaten, wie sie in technischen Gasphasenprozessen entstehen. Das, was in den zehn Jahren für die Modellteilchen gegolten hat, gilt aber natürlich noch immer. Jetzt geht es darum, dieses Wissen systematisch auch auf solch komplexen Materialien zu übertragen. Diese sind zwar schwerer zu beschreiben, haben jedoch den Vorteil, dass sie direkt in großem Maßstab verfügbar sind.
Vor sechs oder sieben Jahren habe ich mit dem Einsatz von Hochdurchsatztechnologie begonnen. Ein Aspekt dabei ist die Reproduzierbarkeit durch Automatisierung. In der Partikeltechnik haben wir eher das Problem von „Low Data“ denn von Big Data. Wir haben häufig sehr wenig Daten, die dazu noch extrem von der Qualität des Experiments abhängen. Mit einer höheren Reproduzierbarkeit und mehr Daten werden Effekte überhaupt erst sichtbar, die wir vorher gar nicht beobachten konnten, weil sie im Rauschen des Experiments untergegangen sind aber essentiell sind, einen skalierten Prozess auszulegen und zu beherrschen.
Auch mit einer besseren Datenqualität ist der Parameterraum aber natürlich immer noch unendlich groß. Mit empirischen Ansätzen, unterstützt durch Machine Learning, aber auch mit einem cleveren Design of Experiments lässt sich herausfinden, wie unterschiedliche Faktoren miteinander wechselwirken, um Struktur-Eigenschafts-Beziehungen zu identifizieren. So lässt sich die unüberschaubare Anzahl von Parametern auf die wirklich wichtigen Stellschrauben eingrenzen.
Ich bin fest überzeugt, dass wir den Bruch zwischen physiko-chemischen Modellen und Empirie in Gestalt von Big Data und Artificial Intelligence überwinden müssen. Wir brauchen beides: Wir brauchen die Empirie, um zu wissen, wo wir genau hinschauen müssen. Dann sind disperse Systeme und Partikel aber immer noch so komplex, dass wir es nie schaffen werden, alle Fälle empirisch zu durchdringen. Wenn wir also die wichtigen Auslöser und Effekte verstanden haben, ist es an uns Wissenschaftlerinnen und Wissenschaftlern, das Ganze mit Physik zu füllen. Wir brauchen ein grundlegendes Verständnis, um fundamentale Prinzipien abzuleiten, die dann im Idealfall universell einsetzbar sind. Für mich sind Automatisierung und Hochdurchsatztechnologien Werkzeuge, um komplexe Struktur-Eigenschaftsbeziehungen in eine Form zu bringen, die ein menschliches Gehirn erfassen kann, und daraus physikalische Modelle zu entwickeln.

Erfahren Sie im zweiten Teil nächste Woche mehr über den Werdegang und die bisherige Arbeit von Doris Segets und darüber, welche technologischen Durchbrüche sie sich wünschen würde.

Veranstaltung

Die Verleihung des DECHEMA-Preises 2020 findet am 5. Juli 2021 an der Universität Duisburg-Essen statt. Die Veranstaltung wird online übertragen. Die Teilnahme ist kostenfrei; bitte melden Sie sich an unter https://dechema.de/DECHEMA_Prize_2020.html


DECHEMA-Fokus-Themen:  

   

0 Kommentar(e)


Captcha neu laden

Jetzt Mitglied werden