Wie steht es heute um die Digitalisierung im Labor? Welche Bedeutung haben Vernetzung, Internet of Things und Big Data?
Lenk: Das kann man sehr gut mit unserem "Five-tiered approach towards digital transformation" beschreiben. Tier One sind dabei Sensoren, die das Geschehen im Labor mit einer kurzen Latenz und einer hohen Frequenz aufzeichnen. Tier Two ist ein Sensornetz. Das heißt, die Sensoren müssen funk- oder drahtgebunden ihre Daten abliefern können. Diese Daten in einer ordentlichen Datenbankstruktur abzuspeichern, auch über einen längeren Zeitraum, ist Tier Three. Das ist der "data lake".
Tier Four ist dann der "structured data lake". Damit wird die Datenbankstruktur zu einer Art Netzwerk gemacht. Begriffe und Messdaten werden also in eine Beziehung zueinander gesetzt. So erhalten die Daten Kontext. Tier Five bedeutet schließlich, die Daten für den Menschen interpretierbar zu machen. Forscher wollen Antworten auf Fragen wie "Ist das ein guter Antibiotikakandidat?" oder "Wie muss ich ein Nährmedium verändern, um das Wachstum zu optimieren?" Wenn Daten aufgezeichnet werden, die mehr als drei Dimensionen umfassen, wird das für Menschen oft zu schwer zu verstehen, weil man das eben nicht mehr in einem Diagramm zeigen kann. Neuronale Netze zum Beispiel können diese Daten dann aufbereiten. Erlebbar können sie dann mit Hilfsmitteln wie Mixed Reality-Brillen, Sprachausgabe oder Assistenzsystemen werden.
Ich würde sagen, bei den meisten Laboren spielt sich die Digitalisierung noch irgendwo zwischen Tier One und Tier Four ab, während es ein paar Anwendungen gibt, die auch das Tier Five erreichen.
Wie wird die weitere Entwicklung in diesem Bereich aussehen?
Lenk: Was bisher gut funktioniert, sind Insellösungen zur Verbesserung von Prozessen und zur Datenhaltung. Problematisch werden dann die Schnittstellen. Wenn ein Pharmaunternehmen zum Beispiel ein Projekt von der Entwicklung in die Produktion überführt, dann muss das Verfahren für den Pilot- oder Produktionsmaßstab oftmals neu erfunden werden.
Es wird zwar die genaue Zusammensetzung des entsprechenden Rezepts übergeben, aber nicht Informationen über den Formfaktor des Reaktors, den Energieeintrag oder die Rührgeschwindigkeit. Die größte Herausforderung ist deshalb jetzt, die Schnittstellen so zu gestalten, dass alle Daten transportiert werden. Für die dafür notwendige Vernetzung entstehen gerade Standards wie durch die OPCua-Initiative von SPECTARIS e.V. oder das Schweizer SiLA-Konsortium (Standardization in Laboratory Automation).
Schwierig sind dann auch die Umstellungen, die die Vernetzung mit sich bringt. Es ist relativ einfach, mit einer Workflow-Analyse den Ist-Zustand zu beschreiben und dann eine Anforderungsliste für den Soll-Zustand aufzustellen. Viele stellen sich vor, dass die Umstellung dann im laufenden Betrieb geht. Dabei unterschätzen sie den Implementierungsaufwand deutlich. Derzeit sind viele Geräte noch nicht miteinander kompatibel, weil die Standards fehlen. Für jede Anwendung müssen individuell Treiber programmiert werden. Gemeinsame Standards und Schnittstellen würden solche Transitionsphasen angenehmer, einfacher und schneller machen. Gleichzeitig müssen die Menschen im Labor sich nicht nur auf ihre manuelle Laborarbeit konzentrieren, sondern auch einschätzen, ob die Geräte das machen, was sie sollen, und ob die Qualität stimmt. Das ist auch ein Wandel im Mindset, und hier stehen wir noch ganz am Anfang.