Zum Inhalt springen

Wissen aus dem Bereich der analytischen Kalibrierung 

Die Wissensseite Analytik beantwortet Ihnen Fragen rund um die analytische Kalibrierung. Sie erhalten genaue Informationen zur Gasanalyse und zur Kalibrierung Ihrer Rauchgasmessgeräte, Leitfähigkeits- und pH-Messgeräten sowie Frittieröltestern. 

Wieso ist eine Kalibrierung von Messgeräten für die Gasanalyse wichtig?

Eine Gasanalyse wird in vielen Branchen und Bereichen vorgenommen, um die Zusammensetzung von Gasen und Gasgemischen zu untersuchen. Hierbei werden verschiedene Gase nicht nur für den Wertschöpfungsprozess eingesetzt, sondern entstehen auch als Nebenprodukt durch verschiedene andere Prozesse wie z.B. beim Verbrennungs-Prozess. Entsprechende Messgeräte finden hier Ihren Einsatz und müssen für eine sichere Gasanalyse regelmäßig kalibriert werden, um Personen vor eventuellen schädlichen Gasen zu schützen. Die Wartung der Geräte dient somit der Vorbeugung von Schäden an den Messzellen, die z.B. durch verdreckte Filter im Messsystem zustandekommen können. Zusätzlich werden die Messzellen justiert, um sicherzustellen, dass nur minimalst Messfehler zustande kommen.  

Analytische Kalibrierung

Wie werden Rauchgasmessgeräte kalibriert?

Rauchgasmessgeräte werden mithilfe von Referenzgasen im Kalibriergasteststand kalibriert. Hierbei werden die Rauchgasmessgeräte an eine halbautomatisierte Anlage angeschlossen. Die Anlage regelt die Durchspühlzeiten zwischen den einzelnen Medien sowie die Beaufschlagung der Gase exakt. Für die Kalibrierung werden die Messwerte nun nur noch ausgelesen. 

Wieso muss mein Rauchgasmessgerät nach der Wartung/Reparatur nochmal kalibriert werden? 

Durch die Wartung/Reparatur werden die Messzellen justiert/ausgetauscht. Da dies eine kalibrierrelevante Veränderung am Gerät darstellt, muss das Rauchgasmessgerät nochmals kalibriert werden.

Was ist eine Messzelle?

Kernstück eines jeden Analysators sind stoffspezifische Sensoren bzw. Sensorsysteme, so genannte Messzellen. Ihre Funktion beruht auf physikalischen oder chemischen Prinzipien wie z. B. Absorption, Adsorption, Transmission, Ionisation, Wärmetönung sowie paramagnetischen oder elektrochemischen Eigenschaften. Die Sensoren reagieren auf eine Änderung der Messgröße mit einer entsprechenden Änderung ihrer Eigenschaft (z. B. erhöhte Lichtabsorption oder Verringerung der Leitfähigkeit), woraus ein Messsignal gebildet werden kann.

Was versteht man unter der elektrischen Leitfähigkeit?

Die elektrische Leitfähigkeit, auch als Konduktivität bezeichnet, ist eine physikalische Größe, die angibt, wie stark die Fähigkeit eines Stoffes ist, den elektrischen Strom zu leiten. Die Leitfähigkeit ist ein Maß für die gesamte Ionenkonzentration einer Messlösung. Je mehr Salze, Säuren oder Basen in der Messlösung anwesend sind, umso höher ist die Leitfähigkeit. 

Wovon ist die Leitfähigkeit einer Lösung abhängig? 

Die Leitfähigkeit einer Lösung ist abhängig von: 

  • der Temperatur: mit steigender Temperatur nimmt die Leitfähigkeit in Lösungen zu. Die bei einer beliebigen Temperatur gemessene Leitfähigkeit wird deshalb meist auf eine Referenztemperatur umgerechnet. Die Referenztemperatur beträgt üblicherweise 25 °C. Die Umrechnung erfolgt mit Hilfe des Temperaturkoeffizienten α. 
  • der Menge der Ionen:  Je mehr Ionen in einer Lösung enthalten sind, desto größer ist die Leitfähigkeit dieser Lösung. 

Wie werden Leitfähigkeitsmessgeräte kalibriert?

Die Kalibrierung von Messsystemen erfolgt unter Verwendung von Referenzlösungen, welche im Umwälzbecken auf 25 °C temperiert werden. Die Messung der elektrischen Leitfähigkeit wird über den Widerstandswert bestimmt. Mittels Ohm'sches Gesetz kann daraus der elektrische Leitwert berechnet werden. Hierbei errechnet sich die elektrolytische Leitfähigkeit aus dem elektrischem Leitwert G und der geometrischen Konstante des Elektrodenpaares C (Zellkonstante). Die Zellkonstante (auch Elektrodenkennziffer oder Widerstandskapazität) ist das Verhältnis der Elektrodenfläche zu deren Abstand voneinander. Die Zellkonstante hat die Maßeinheit cm-1. Für sehr einfache Geometrien wie die eines Plattenkondensators kann die Zellkonstante durch Division des Elektrodenabstandes durch die Elektrodenfläche berechnet werden. Die Zellkonstante wird bevorzugt durch Kalibrierung bestimmt. Aufgrund der Variationen zwischen den einzelnen Zellen werden die Zellkonstanten individuell bestimmt und auf der Zelle angegeben.

Was versteht man unter einer pH-Messung?

Bei der pH-Messung wird die Anzahl der Wasserstoffionen gemessen, um Aussagen über deren Konzentration zu bekommen. Der pH-Wert ist ein Maß für den sauren oder basischen Charakter einer wässrigen Lösung. Er ist der negative dekadische Logarithmus (= Zehnerlogarithmus) der Wasserstoffionen-Aktivität. Der pH-Wert einer Lösung ist abhängig von der Temperatur. Die Referenztemperatur beträgt üblicherweise 25 °C. Mit steigender Temperatur erhöht sich auch die Steilheit der Messelektrode. Erfolgen Messung bzw. Kalibrierung nicht bei stabilen 25 °C Umgebungstemperatur, muss diese durch Einstellung der Temperaturkompensation angepasst werden.  

Wie werden pH-Messgeräte kalibriert?

Die Kalibrierung von Mess-Systemen erfolgt unter Verwendung von Referenzlösungen, welche im Umwälzbecken auf 25°C temperiert werden. Die Spannung, die an der Messelektrode entsteht und unterschiedlich hoch sein kann, wird verglichen mit der Spannung, die sich durch Diffusionspotentiale an der Vergleichselektrode einstellt und - unabhängig von der Ionenkonzentration im Wasser - konstant ist. Die Differenz zwischen den beiden Spannungen, das eigentliche Messsignal, gibt dann Auskunft über die Ionenkonzentration im Wasser. Durch die Kalibrierung wird die Nullpunktspannung sowie die Steigung einer pH-Elektrode ermittelt und im Messgerät gespeichert. Da sich der Nullpunkt und die Steigung durch die äußeren Messbedingungen sowie durch den natürlichen Alterungsprozess verändern können, muss eine pH-Elektrode regelmäßig kalibriert werden. 

Was bedeutet TPM? Und welches Messprinzip gilt hier?

TPM ist die Abkürzung für „Total Polar Materials“ (deutsch: Gesamt polare Materialien). Der Gehalt der gesamten polaren Anteile wird als % TPM oder teils auch als TPC („Total Polar Compounds oder Components“) angegeben. Ist das Öl zu alt, weist es einen erhöhten TPM-Wert auf. Der Schwellenwert in Deutschland für den Verderb wurde bei 24 % TPM festgelegt. Die kapazitive Messung beruht auf der Messung der Dielektrizitätskonstanten. Dazu wird an die beiden Kondensatorplatten eine Spannung angelegt. Die Kondensatorplatten laden sich dabei so lange auf, bis eine bestimmte Menge an elektrischer Ladung erreicht ist. Mit zunehmender Ladung richten sich die polaren Anteile im Fett immer mehr aus. Dabei zeigen die roten positiven Enden der Anteile zur blauen, negativen Platte und die blauen, negativen Enden zur roten, positiven Platte. Ist der Kondensator geladen, besitzt er eine bestimmte Kapazität. Sie ist abhängig vom Dielektrikum, in diesem Fall vom Öl. Je mehr polare Anteile im Frittieröl enthalten sind, desto größer ist die Kapazität des Kondensators. Diese Kapazitätsänderung wird umgerechnet und erscheint dann z. B. als TPM-Gehalt in Prozent auf der Anzeige des Frittieröltesters. 

Wie werden Frittieröltester kalibriert?

Die Kalibrierung von Frittieröltestern erfolgt unter Verwendung von Referenzölen, welche auf 50°C temperiert werden. Der Fettmesssensor wird in das temperiertes Referenzöl getaucht welches einen definierten TPM-Wert hat. Weicht der dabei am Messgerät angezeigte Wert zu sehr ab, wird dieser bei einer Justage bei 50°C sowie 180°C dem Sollwert angepasst.