37,99 €
Der Taschenatlas bietet eine kompakte Einführung und Übersicht über Grundlagen und Anwendungen der Analytischen Chemie. Dabei sind jeweils erläuternder Text und eine Farbtafel auf einer Doppelseite gegenübergestellt. Das Buch enthält insgesamt 125 Farbtafeln, die die gesamte Breite der modernen Analytik in Chemie, Biowissenschaften und Teilen von Physik und Materialwissenschaften abdecken. Für die vierte Auflage wurde der Taschenatlas erweitert und auf den aktuellen Stand gebracht. Er enthält u. a. acht neue Farbtafeln zu aktuellen Themen wie Mikroextraktionstechniken, Radioimmunoassays, Superfluid-Chromatographie und die elektronenmikroskopische Untersuchung von Materialoberflächen. Mit diesem Atlas sind die Grundlagen aller wichtigen analytischen Verfahren immer griffbereit - ideal zum raschen Nachlesen und für die Prüfungsvorbereitung.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 337
Abdeckung
Titelblatt
Copyright-Seite
Vorwort zu 4. Auflage
Vorwort zur 3. Auflage
Vorwort zur 2. Auflage
Vorwort zur 1. Auflage
Einleitung
1 Grundlagen
1.1 Aufgaben der chemischen Analytik
1.2 Problemstellung und Analysenstrategie
1.3 Klassifikation von Analysenmethoden
1.4 Grundlegende Arbeitsschritte und Methoden in Symbolen
1.5 Arbeitsbereiche und Vergleich von Analysenmethoden
1.6 Verbundverfahren und Fehlerquellen
1.7 Statistische Auswertung von Analysenergebnissen
2 Probenvorbereitung
2.1 Probenahme und ‐stabilisierung
2.2 Aufschlussmethoden
2.3 Anreicherungsmethoden
2.4 Proben‐Cleanup‐Verfahren
3 Nachweisverfahren
3.1 Arbeitstechniken und Analysengang
3.2 Trennungsgänge und selektive Reagenzien
3.3 Spezielle Testverfahren
4 Chemische und biochemische Methoden
4.1 Gravimetrie
4.2 Maßanalyse
4.3 Enzymatische Analyse
4.4 Immunochemische Methoden
5 Elektrochemische Analysenmethoden
5.1 Grundlagen
5.2 Elektrogravimetrie
5.3 Potentiometrie
5.4 Konduktometrie
5.5 Polarographie und Voltammetrie
5.6 Coulometrie
6 Thermische Analysenmethoden
6.1 Methodenübersicht
6.2 Thermogravimetrie
6.3 Differenz‐Thermoanalyse (DTA)
6.4 Differenz‐Scanning‐Kalorimetrie
7 Atomspektrometrische Methoden
7.1 Aufbau eines Atom‐Spektrometers
7.2 Atomabsorptions‐Spektrometrie (AAS)
7.3 Atomemissions‐Spektrometrie
7.4 Röntgenfluoreszenzanalyse (RFA)
8 Molekülspektroskopische Analysenmethoden
8.1 Einführung
8.2 Kolorimetrie
8.3 Spektralphotometrie
8.4 Fluorimetrie
8.5 Infrarot‐ und Raman‐Spektroskopie
8.6 Massenspektrometrie
8.7 Kernresonanz(NMR)‐Spektroskopie
9 Trennmethoden
9.1 Systematik physikalischer und chemischer Trennmethoden
9.2 Chromatographische Trennmethoden
9.3 Elektrophorese
10 Automatisierung von Analyseverfahren
10.1 Grundlagen
10.2 Kontinuierliche Durchflussanalyse (CFA)
10.3 Fließinjektions‐Analyse (FIA)
10.4 Kopplungstechniken
11 Spezielle Anwendungsgebiete und Methoden
11.1 Radiochemische Methoden
11.2 Festkörper‐ und Oberflächenanalytik
11.3 Chemische Sensoren
11.4 Prozessanalytik
11.5 Strukturanalytik
11.6 Elementspeziesanalytik
11.7 Wasseranalytik
11.8 Aromastoffanalytik
11.9 Pestizid‐ oder Rückstandsanalytik
11.10 Bioanalytik
Literaturverzeichnis
Stichwortverzeichnis
End User License Agreement
Cover Page
Title Page
Copyright Page
Vorwort zu 4. Auflage
Vorwort zur 3. Auflage
Vorwort zur 2. Auflage
Vorwort zur 1. Auflage
Table of Contents
Begin Reading
Literaturverzeichnis
Stichwortverzeichnis
WILEY END USER LICENSE AGREEMENT
III
IV
VII
VIII
IX
X
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
251
252
253
255
256
257
258
259
260
261
262
263
264
265
266
Georg Schwedt
Vierte, überarbeitete und ergänzte Auflage
Autor
Prof. Dr. Georg SchwedtLärchenstr. 2153117 BonnDeutschland
TitelbildUnter Verwendung eines Bildes von Shutterstock(Stock Photo ID: 757238590, Pimaraya Chaiyawan).
4. Auflage 2023
Alle Bücher von Ernst & Sohn GmbH werden sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber und Verlag in keinem Fall, einschließlich des vorliegenden Werkes, für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler irgendeine Haftung.
Bibliografische Information derDeutschen NationalbibliothekDie Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2023 Ernst & Sohn GmbH, Boschstr. 12, 69469 Weinheim, Germany
Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichen in diesem Buch berechtigt nicht zu der Annahme, dass diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie nicht eigens als solche markiert sind.
Umschlaggestaltung ADAM Design,WeinheimSatz le-tex publishing services GmbH, Leipzig
Print ISBN 978-3-527-34872-5ePDF ISBN 978-3-527-83072-5ePub ISBN 978-3-527-83073-2
Gedruckt auf säurefreiem Papier.
Vor 30 Jahren erschien die erste Auflage dieses Kompendiums der Analytischen Chemie – nach dem Vorbild der medizinischen Taschenatlanten als eine Kombination aus farbigen Abbildungen und Text, in der chemischen Analytik damals ein Novum. In drei Jahrzehnten kamen einige neue Methoden hinzu. Die physikalisch‐chemischen Grundlagen haben sich trotz der enormen technologischen Fortschritte in der Gerätetechnik nicht wesentlich geändert. Einige Änderungen bzw. Ergänzungen wurden jedoch in den Kapiteln „Probenvorbereitung“, „Atom‐Spektrometrie“, „Röntgenfluoreszenzanalyse“, „Chromatographie“, „Festkörper‐ und Oberflächenanalytik“ sowie „Strukturanalytik“ vorgenommen. Dafür konnten Abbildungen aus dem Lehrbuch Analytische Chemie des Autors verwendet werden. Der Taschenatlas der Analytik hat sich einerseits als ein Nachschlagewerk zur schnellen Information über Methoden und Anwendungen etabliert, andererseits aber offensichtlich auch als Repertorium zur Prüfungsvorbereitung, wie mir mancher Besitzer dieses Buches mit „Gebrauchsspuren“ beim Signieren mitteilte.
Bonn, Sommer 2022Georg Schwedt
Der Taschenatlas der Analytik ist inzwischen auch in englischer, französischer, japanischer und neugriechischer Sprache erschienen, eine Lizenz zur Übersetzung in die chinesische Sprache ist erteilt worden. Das Prinzip, die Methoden und wichtige spezielle Anwendungsgebiete der Analytik in Text und Bild grundlegend darzustellen, ist auch für vier ergänzenden Tafeln beibehalten worden. Es wurden folgende Gebiete neu aufgenommen: die Laser‐Spektrometrie (LIMS und LIPS), die für die Feststoffanalytik von großer Bedeutung ist, das noch in rascher Entwicklung befindliche Gebiet der Mikroanalysensysteme (µ‐TAS; Lab‐on‐a‐chip) und im Bereich der Anwendungen die Bioanalytik mit den speziellen Gebieten MALDI‐TOF‐Verfahren und PCR‐Methodik für gentechnisch veränderte Lebensmittel (die letztere aus dem Taschenatlas für Lebensmittelchemie, 2. Aufl., ebenfalls im Verlag Wiley‐VCH, Weinheim 2005).
Clausthal‐Zellerfeld im Winter 2006Georg Schwedt
Der im Sommer 1992 erstmals erschienene Taschenatlas der Analytik, der auch in die französische, japanische und griechische Sprache übersetzt wurde, ist erfreulich gut aufgenommen worden, so dass nach drei Jahren eine Neuauflage vorbereitet werden musste. Die 2. Aufl. wurde auf Druck‐ und sachliche Fehler überarbeitet und durch drei neue Farbtafeln erweitert: Der Themenbereich Strukturanalytik wurde durch Beugungsmethoden ergänzt, neu hinzu kam das Kapitel über Chemische Sensoren (biochemische Sensoren wurden bereits in der 1. Aufl. im Kap. 5.3 unter Elektroden kurz behandelt). Die Abbildungen für diese drei Bildtafeln stammen aus dem im Georg Thieme Verlag ebenfalls mit ausschließlich farbigen Abbildungen erschienenen Lehrbuch des Autors: Analytische Chemie. Grundlagen, Methoden und Praxis (Stuttgart 1995).
Clausthal‐Zellerfeld im Herbst/Winter 1995/1996Georg Schwedt
Der Taschenatlas wendet sich an alle Naturwissenschaftler, die sich für die stofflich orientierte Analytik interessieren – von den Teilnehmern an Chemie‐Leistungskursen in der Sekundarstufe II weiterbildender Schulen, den Studenten an Fach‐ und wissenschaftlichen Hochschulen bis zu den Praktikern, den fachlich kompetenten Nutzern analytisch‐chemischer Daten, denen die Aufgabe einer problemorientierten Interpretation gestellt ist. Sie sind auch oft die Auftraggeber von Analysen, die in der Diskussion mit dem Analytiker bereits ein Bild von den Möglichkeiten und Grenzen der Methoden haben sollten. Nur wer die chemische Analytik von der Problemstellung, von der Probenahme und Probenvorbereitung, der Anwendung von Methoden bis hin zur kritischen Interpretation der Messwerte als Einheit versteht, wird dem hohen Anspruch gerecht, einem hohen Kostenaufwand, bedingt durch den Einsatz hochwertiger Analysensysteme und qualifizierten Personals, sinnvoll verwertbare Daten gegenüberstellen zu können.
Bei der Konzeption habe ich mir – in hervorzuhebender enger, konstruktiver Zusammenarbeit mit dem Graphiker Joachim Schreiber – die Aufgabe gestellt, die wichtigsten Methoden der derzeitigen chemisch‐physikalischen Analytik von ihren Grundlagen bis zu den problemorientierten Anwendungen in Bild und Text vorzustellen – und damit einen möglichst breiten Querschnitt zu vermitteln. Da die bildliche Darstellung im Vordergrund stehen sollte, mussten oft Kompromisse hinsichtlich der Texte, die knapp gehalten sind, eingegangen werden – der Taschenatlas kann und soll daher auch kein Lehrbuch ersetzen. Als Vorlage für die bildlichen Darstellungen dienten zahlreiche Lehrbücher und Spezialmonographien von vielen Kollegen, die im Anhang zitiert sind.
Ich hoffe auf eine gute Aufnahme in der Fachwelt und bin für Kritik und weitere Anregungen dankbar.
Clausthal‐Zellerfeld im Frühjahr 1992Georg Schwedt
Die Analytische Chemie, oft kurz (chemische) Analytik genannt, mit ihren sehr unterschiedlichen Methoden, nimmt heute in nahezu allen Bereichen unseres „materiellen“ (stofflichen) Lebens eine wichtige und an Bedeutung noch zunehmende Stellung ein. Seit den siebziger Jahren hat sich dieses Fachgebiet der Chemie, das bis heute trotz ihrer anerkannten Bedeutung an den Universitäten immer noch nicht den ihr zukommenden Stellenwert durch eigenständige Professuren erhalten hat, aus einer klassischen, überwiegend chemisch orientierten Disziplin zu einer physikalisch‐chemischen, instrumentellen und problemorientierten Methodik entwickelt. Mit ihren verschiedenartigen Methoden gelang es ihr, in immer niedrigere Konzentrationsbereiche vorzustoßen (Spurenanalytik) und immer komplexere Stoffgemische umfassend zu untersuchen (z. B. mit Hilfe von Hochleistungs‐Trennmethoden). Die Geräteindustrie, die aufgrund dieser Entwicklungen entstanden ist, stellt einen bedeutenden volkswirtschaftlichen Faktor dar.
Ende der siebziger Jahre habe ich als Fachhochschullehrer für Analytische Chemie an der Universität‐Gesamthochschule Siegen, zusammen mit meinen Analytiker‐Kollegen H. Monien und E. Hohaus die Bedeutung der modernen Spurenanalytik wie folgt umschrieben: „Heute sind spurenanalytische Daten die Grundlage für politische, juristische und medizinische Entscheidungen, die nicht nur die Wiedergewinnung und Erhaltung der Qualität von Luft, Wasser oder von Lebensmitteln, sondern insgesamt die mit Recht so häufig zitierte,Qualität des Lebens‘ betreffen. Hier ist vor allem die Analytik im Umweltschutz mit den Bereichen Luftreinhaltung, Wasseranalytik, einschließlich der Meeresforschung, sowie die Lebensmittelchemie zu nennen. Auf medizinischen Gebieten sind besonders die biochemische Analytik und die Arzneimittelforschung auf spurenanalytische Methoden angewiesen. In der Reinststoff‐Forschung und in den technischen Fächern, etwa in den Werkstoffwissenschaften, ist die Kenntnis über den Gehalt von Elementspuren eine wichtige Voraussetzung zur Ermittlung physikalischer Stoffeigenschaften. Auch so verschiedene Wissenschaften wie die Geologie und die Archäologie bedienen sich spurenanalytischer Methoden, um Probleme ihres Faches aufzuklären. Tatsachlich gibt es heute kaum ein Gebiet der experimentellen Naturwissenschaften, das nicht in irgendeiner Weise mit spurenanalytischen Fragen befasst ist“.
Diese Aussagen zur Spurenanalytik sind immer noch und sogar in einem weitaus größeren Umfang Anfang der neunziger Jahre allgemein gültig. Gehaltsanalyse und Strukturanalyse, Konzentrationsbestimmungen bzw. Identifizierung und Strukturaufklärung von Stoffen sind die beiden Teile bzw. Schwerpunkte einer umfassenden Analytik.
Es war das Ziel, sowohl im methodischen als auch im Anwendungsteil immer wieder die Problem‐ und Stofforientierung sowie den interdisziplinären Charakter der chemischen Analytik beim Einsatz physikalischer, aber auch biochemischer Untersuchungsmethoden deutlich werden zu lassen. Zu einer umfassenden Darstellung der Analytik gehören daher sowohl statistische Grundlagen, Konzepte zu Analysenstrategien wie auch die speziellen Verfahren der Wasser‐, Prozess‐ oder auch Elementspeziesanalytik – mit Darstellungen von der Probenahme bis hin zur Bewertung (Interpretation) der Ergebnisse.
„Chemische Analytik ist die Wissenschaft von der Gewinnung und verwertungsbezogenen Interpretation von Informationen über stoffliche Systeme mit Hilfe naturwissenschaftlicher Methoden.“ (Definition aus der Fachgruppe Analytische Chemie der Gesellschaft Deutscher Chemiker, GDCh).
In der klassischen Chemie hatte die Analytik (Analytische Chemie) lediglich die Aufgabe, die Zusammensetzung von Stoffen und Stoffgemischen zu ermitteln. Heute besitzt sie einerseits eine Dienstleistungsfunktion, die weit über die Chemie hinaus sich auf fast alle Gebiete der Naturwissenschaften, der Medizin und Technik bis zu den Kulturwissenschaften (wie Archäologie, Buchmalerei u. a.) erstreckt. Andererseits stellt die chemische Analytik eine eigenständige Teildisziplin der Chemie dar, mit engen Beziehungen zur Physik, zur Messtechnik und zu den Informationswissenschaften. Sinnvoll (bewertend) eingesetzt, bedarf sie einer interdisziplinären Zusammenarbeit zwischen analytischem Chemiker (Analytiker) und Fachwissenschaftlern aus den genannten Bereichen. Ergebnisse chemischer Analysen führen zu technologischen, medizinischen und auch juristischen Entscheidungen (z. B. im Umweltbereich), wodurch auch die hohe Verantwortung des Analytikers charakterisiert ist.
Die qualitative Analyse (1.) ermittelt die Art eines Stoffes (z. B. chemischen Elements) verbunden mit der Information der geringsten (noch nachweisbaren) Konzentration. Die quantitative Analyse (2.) bestimmt die Konzentration (bzw. Menge) in einem stofflichen System (der Matrix). Diese Art der Analyse wird Gehaltsanalyse genannt. Bezeichnet man die Art der Bestandteile (Stoffe) mit z, mit y die Menge dieser Bestandteile, so erhalten wir für die Elementanalytik (Elemente in diesem Zusammenhang: Atome, Ionen, Radikale, Moleküle) in Form der qualitativen Analyse eine eindimensionale Darstellung über die Art der Bestandteile. Das Ergebnis einer quantitativen Analyse kann ein‐ oder zweidimensional dargestellt werden. Die zweidimensionale, die getrennte Darstellung der Stoffmengenkonzentrationen (3.), entspricht z. B. einem Chromatogramm, einem Spektrum oder einem Polarogramm in der instrumentalen Analytik.
Beinhaltet die analytische Information außer z (Bestandteil) und y (Menge) auch Raumkoordinaten (lx, ly, z1, z2, z3), so handelt es sich um eine Verteilungsanalyse (1.) – mit verschiedenen Stoffen auf einer Fläche. Mit Hilfe der Laser‐Mikrospektralanalyse lassen sich beispielsweise Oberflächenschichten punktförmig abtasten – für jeden Punkt werden Aussagen über Art (z) und Menge (y) gemacht: Man erhält ein Mengenprofil (2.). Solche Analysenmethoden gewinnen zur Ermittlung von Inhomogenitäten auf und in Festkörpern zunehmend an Bedeutung, z. B. in der Mikrochip‐Herstellung.
Neben den Variablen z und y tritt hier anstelle der Raumkoordinaten 1 auch die Zeit t auf (1. drei‐, 2. zweidimensionale Darstellung). Prozessanalysen, auch dynamische Analysen genannt, dienen zur Kontrolle und Steuerung von Verfahrensabläufen in der chemischen und pharmazeutischen Industrie. Zur Durchführung von Prozessanalysen sind analytische Methoden mit genügend geringer Analysenzeit (bis zu etwa 10 min) erforderlich.
Die Ermittlung von Anordnung und Verknüpfung elementarer Bausteine (von Atomen oder auch funktionellen Gruppen) in Molekülen und Festkörpern führt zu einer Strukturaufklärung. Prinzipiell stellt die Strukturanalyse eine Verteilungsanalyse in atomaren Bereichen dar. Qualitative Strukturanalysen liefern Informationen über die Konstitution, quantitative Strukturanalysen ermöglichen die Bestimmung von Konfiguration und Konformation von Molekülen oder der Elementarzelle von Kristallen – mit Hilfe molekülspektroskopischer (MS: Massen‐, H‐NMR: Kernresonanz‐, IR: Infrarotspektroskopie) sowie von Beugungsmethoden.
Um eine Analysenstrategie, d. h. die Vorgehensweise von der Probenahme bis zur Gewinnung und Verarbeitung der analytischen Information planen zu können, ist zunächst eine Formulierung der Problemstellung erforderlich. Nachdem das Untersuchungsobjekt charakterisiert, die zu analysierenden Stoffe in der vorgegebenen Matrix festgelegt und der zu erwartende Konzentrationsbereich eingegrenzt sind, erfolgt je nach Art des Untersuchungsobjektes eine Probenahme: Sie wird sich verständlicherweise für die Metallgehaltsbestimmung in einer Erzladung wesentlich von der für eine Schwermetallspurenanalyse in einer Tierleber unterscheiden.
Die Probenvorbereitung kann in einem Aufschluss bestehen, bei dem aus dem gesamten Feststoff z. B. mit Hilfe eines Säuregemisches eine Lösung hergestellt wird; sie kann eine Anreicherung von gelösten Spurenstoffen aus einer Wasserprobe beinhalten, um diese für eine ausgewählte Analysenmethode messbar zu machen; sie kann auch die Überführung eines Stoffes in eine messbare Form, z. B. die Verflüchtigung von Elementen als Hydride für eine anschließende atomspektrometrische Analyse erforderlich machen. Mit der Probenvorbereitung ist oft bereits auch die Abtrennung störender Matrixbestandteile verbunden, wodurch eine spezielle Methode überhaupt erst einsetzbar wird. Es kann andererseits aber auch eine Auftrennung von Stoffgemischen für eine anschließende Analyse der Einzelstoffe erforderlich sein. Trennschritten liegen häufig physikalische Trennmethoden zugrunde, wobei die Stoffe selbst nicht verändert werden. Als chemische Trennmethoden werden Fällungen und auch Flüssig‐flüssig‐Extraktionen bezeichnet. Als direkte Methoden werden diejenigen der instrumentellen Analytik bezeichnet, die den direkten Einsatz einer Probe ohne die beschriebene Probenvorbereitung ermöglichen.
Probenvorbereitung und der Einsatz von Trennmethoden führen erst zum eigentlichen Messobjekt, z. B. zu einer Lösung, in welcher eine Gehalts‐ bzw. Konzentrations‐ oder auch Konformationsanalyse bzw. Identifizierung eines Stoffes mit selektiven Methoden physikalischer oder chemischer Art vorgenommen werden kann. Zu den physikalischen Methoden gehören alle Techniken der spektroskopischen Analytik (sowohl Atom‐ als auch Molekülspektroskopie bzw. ‐spektrometrie). Beispiele sogenannter chemischer Selektierung sind komplexometrische Titrationen in homogener Lösung und andere maßanalytische Verfahren. Die beschriebenen Bestimmungsmethoden liefern schließlich ein Messergebnis.
Aus dem Messergebnis lassen sich die Zusammensetzung des Messobjektes, das Vorhandensein und die Konzentrationen eines oder mehrerer Stoffe (qualitativ und quantitativ) oder auch die Konstitution eines Stoffes ermitteln. Zur Analysenstrategie gehören auch die kritische Betrachtung der Messergebnisse, eine Fehleranalyse sowie die Datenverarbeitung und Dokumentation der Ergebnisse. Aus dem so gewonnenen Analysenresultat hat schließlich der Analytiker unter Bezug auf die zu Anfang formulierte Problem‐ bzw. Aufgabenstellung Schlussfolgerungen zu ziehen, d. h. eine problemorientierte Bewertung vorzunehmen. Darin liegt die besondere Verantwortung des analytischen Chemikers. Wegen der unterschiedlichsten Untersuchungsobjekte und Fragestellungen ergibt sich daraus auch die Forderung nach einer interdisziplinären Zusammenarbeit. Komplexe Matrices bzw. differenzierte Fragestellungen erfordern in der Regel eine Kombination von Methoden, die Verknüpfung von Verfahrensschritten: Sie bilden den eigentlichen Lehrinhalt der modernen, problem‐ und praxisbezogenen chemischen Analytik. Trotz leistungsfähiger Geräte der instrumentellen Analytik ist ein direkter Weg vom Objekt zum Analysenresultat auch heute nur in wenigen Fällen möglich. Die Forderung an den Analytiker besteht demnach in der Entwicklung solcher Analysenstrategien.
Die Basis eines analytischen Messprinzips sind die Naturgesetze, wie z. B. die Absorption von Licht bestimmter Wellenlänge durch definierte chemische Teilchen. Der analytische Prozess insgesamt besteht aus einer Folge von Teilschritten. Auf diese Weise werden Informationen über das Untersuchungsobjekt und seine Eigenschaften im Hinblick auf eine vorgegebene Problemstellung gewonnen.
Das Analysenprinzip beinhaltet Wechselwirkungen, z. B. zwischen Licht bestimmter Wellenlänge und der Probe, die zu interpretierbaren Messwerten führen. Das Analysenprinzip ist als Teilschritt der Messung durch die zugrunde liegenden Naturgesetze quantitativ beschreibbar. Eine Analysenmethode enthält darüber hinaus auch Anteile der Teilschritte Probenvorbereitung und Auswertung: Sie stellt bereits die strategische Konzeption zur Erzielung optimaler Information über das Untersuchungs‐ bzw. Messobjekt bei einem vorgegebenen Analysenprinzip dar. Ein Analysenverfahren ist durch die Analysen‐ bzw. Arbeitsvorschrift gekennzeichnet. Diese enthält Anweisungen über die Probenahme, die Probenvorbereitung (mit Angaben der benötigten Geräte und Chemikalien), zur Messanordnung (Geräteeinstellungen), über die Analyseneichfunktion (zur Kalibrierung), den Anwendungsbereich sowie Angaben zur Selektivität, zu den möglichen Fehlern (systematische oder zufällige Fehler) und auch über den Zeitbedarf.
Die quantitative chemische Analytik lässt sich vereinfacht in die klassischen nasschemischen und die (modernen) instrumentellen Methoden unterteilen. Von den historischen Analysenmethoden haben bis heute die Gravimetrie (Gewichtsanalyse) und die Volumetrie (besser: Maßanalyse) als Titrationsverfahren ihren Stellenwert als einfache, aber zuverlässige Verfahren behalten. Die instrumentellen (apparativen) Methoden benötigen spezielle Messtechniken bzw. Messgeräte über Waage und Bürette hinaus, oft den Einsatz von Computern. Sie lassen sich in drei Hauptgruppen unterteilen:
Bei den optischen Methoden liegen die Analysenprinzipien Emission bzw. Absorption zugrunde. Die Wechselwirkungen zwischen Atomen, Molekülen oder auch Ionen und elektromagnetischer Strahlung führen zu einer analytisch verwertbaren Information. Die Methoden werden im engeren Sinne als spektroskopische – atom‐ oder molekülspektroskopische – Methoden, entweder als Emissions‐ oder als Absorptions‐Spektroskopie bzw. ‐Spektrometrie zusammengefasst. Zu den atomspektrometrischen Methoden gehören die Atomabsorptions‐Spektrometrie (AAS), die Atomemissions‐Spektrometrie (AES), z. B. in Form der Flammenphotometrie, und die Röntgenfluoreszenzanalyse als eine weitere Emissionsmethode. Zu den molekülspektroskopischen Methoden zählen unter anderem die Spektralphotometrie, die Infrarot‐Spektroskopie (IR), die Massenspektrometrie (MS) und auch die Kernresonanz‐Spektroskopie (NMR). Sie werden vor allem im Bereich der Strukturanalyse eingesetzt, oft auch in Verbindung (in Kombination bzw. direkter Kopplung) mit Trennmethoden wie der Gas‐Chromatographie (GC).
Zu den Trennmethoden gehören die chromatographischen Trennmethoden, die als Ergänzung zu einem vollständigen Analysenverfahren stets eine Detektionsmethode, meist aus dem Bereich der spektrometrischen Methoden, benötigen. Trennmethoden stellen generell alle physikalisch‐chemischen Verteilungen zwischen zwei unterschiedlichen Phasen dar – also auch die Flüssig‐flüssig‐ oder die Fest‐flüssig‐Extraktion und der Ionenaustausch. Elektroanalytische Methoden verwenden den elektrischen Strom (die Messgrößen Stromstärke und Spannung bzw. Potential) zur Erzeugung einer analytischen Information. Sie schließen oft einen Stoffumsatz und damit Trennvorgänge ein, die sich unter der Beteiligung von Elektronen an Elektrodenoberflächen abspielen – wie z. B. bei der Polarographie. Andererseits bilden stromlose Methoden einen Teil der elektrochemischen Analytik, so z. B. die Potentiometrie – mit dem direkten Einsatz von Elektroden (als Direktpotentiometrie) oder als Indikationsmethode innerhalb von Titrationsverfahren.
Für die Darstellung von Arbeitsverfahren – von Arbeitsabläufen – lassen sich häufig Symbole verwenden, die die Verknüpfung der einzelnen Arbeitsschritte in Form eines schematischen Fließbildes übersichtlich vor Augen führen. Alle Analysenschritte werden durch das zugrundeliegende Prinzip und nicht durch Geräte wiedergegeben, die in ihrer Ausführungsform ständig weiterentwickelt werden und deren bildhafte Darstellung daher schnell veralten würde. Aus den einzelnen, hier dargestellten Symbolen, die in eine DIN‐Vorschrift Eingang gefunden haben, lässt sich jede Analysenvorschrift in ein schematisches Fließschema umwandeln, das durch Detailangaben wie Konzentrationen von Lösungen, Temperatur, pH‐Wert u. a. ergänzt werden kann.
Mahlen, Mischen und Lösen sind die wichtigsten Teilschritte einer Probenvorbereitung, wofür auch mechanische Geräte der unterschiedlichsten Ausführungen, z. B. Kugelmühlen für die Feinzerkleinerung harter Stoffe, eingesetzt werden. Mischen beinhaltet beispielsweise auch das Homogenisieren von Proben. Mit dem Lösen sind die Arbeitsschritte Rühren, Erwärmen, Kochen und auch Kühlen verbunden. Das Kristallisieren ist in der chemischen Analytik weniger gebräuchlich, es dient vor allem präparativen Zwecken. Zur Titrimetrie (Maßanalyse) gehören die Arbeitsschritte Flüssigkeitszugabe und Neutralisieren, zur Gravimetrie das Fällen von Niederschlägen, Trocknen durch Wärme, das Glühen und auch das Trocknen auf chemischem Wege (in einem Exsikkator) und das Wägen.
Die folgenden Arbeitsschritte beinhalten Trennverfahren bzw. Trennmethoden. Unter Sieben versteht man Verfahren zur Trennung von Feststoffgemischen nach ihrer Korngröße (Siebanalyse). Beim Filtrieren werden Feststoffteilchen aus Flüssigkeiten oder Gasen über geeignete Filter (Filterpapier, Membranfilter, Glasfiltergeräte oder Porzellantiegel für das System fest–flüssig) getrennt. Mit Zentrifugieren bezeichnet man das Trennen von Stoffgemischen durch Ausnutzung der Fliehkraft. Extrahieren und Ausschütteln sind zwei miteinander verwandte Vorgänge: Mit Extrahieren bezeichnet man den Vorgang zum Herauslösen bestimmter Bestandteile aus festen oder flüssigen Substanzgemischen; man unterscheidet Fest‐flüssig‐ und Flüssig‐flüssig‐Extraktionen – Letzteres wird auch Ausschütteln genannt.
Unter Destillieren versteht man die Verdampfung einer Flüssigkeit, die aus beliebig vielen Einzelstoffen bestehen kann, mit anschließender Kondensation des dabei gebildeten Dampfes zum Destillat (z. B. fraktionierte Destillation). Das Pumpen von Gasen ist im weitesten Sinne ebenfalls als Trennverfahren anzusehen. Im engeren Sinne stellt das Elektrolysieren eine elektrochemische Trennmethode dar, bei der infolge des Stromdurchgangs durch einen Elektrolyten je nach angelegter Spannung eine Abscheidung von Ionen in Form von z. B. Metallen an einer Elektrodenoberfläche erfolgt.
Die Chromatographie (das Chromatographieren) stellt eine physikalisch‐chemische Trennmethode dar, bei der eine Stofftrennung infolge unterschiedlicher Verteilungen zwischen einer stationären und einer mobilen Phase erfolgt. Je nach dem Aufbau bzw. Kombination des Phasenpaares unterscheidet man die Flüssigkeits‐Chromatographie (mobile Phase: Flüssigkeit, stationäre Phase: Feststoff oder Flüssigkeit) als Dünnschicht‐Chromatographie (DC; stationäre Phase: dünne Schicht auf einem Trägermaterial), Hochdruck‐Flüssigkeits‐Chromatographie (HPLC; stationäre feste Phase in einer dünnen Säule), Ionenaustausch‐Chromatographie (stationäre Phase: Ionenaustauscher) von der Gas‐Chromatographie (mobile Phase: Gas).
Für die atom‐ und molekülspektroskopische Methodik, der Wechselwirkungen zwischen elektromagnetischer Strahlung und chemischen Stoffen zugrunde liegen, wird ein Grundsymbol (Spektrometrie) mit den Abkürzungen für die speziellen Methoden, z. B. NMR für Kernresonanz‐ (nuclear magnetic resonance), MS für Massenspektrometrie oder IR für Infrarotspektroskopie verwendet.
Begrenzende Faktoren für die optimale Auswahl einer Analysenmethode sind die zur Verfügung stehende Probenmenge und der zu erwartende Konzentrations‐ bzw. Gehaltsbereich des bzw. der zu analysierenden Stoffe. Für die Arbeitsbereiche in der Analytik existiert seit 1979 eine IUPAC‐Nomenklatur (IUPAC: International Union of Pure and Applied Chemistry – Oxford), in der drei wesentliche, miteinander verknüpfte Größen definiert sind. Der Probenmassenbereich S (S = mx + my) gibt den Bereich der Probenmenge der Komponenten x – dem sogenannten Analyten – in einer Matrix y (dem Hauptbestandteil der Probe bzw. der Summe der übrigen Bestandteile) an, die für eine ausgewählte Analysenmethode erforderlich ist. Die am häufigsten eingesetzten Probenmengen liegen im Gramm‐ bis minimal oberen Mikrogrammbereich. Entsprechend der zur Verfügung stehenden Probenmenge werden die Bezeichnungen Makro‐, Meso‐ (oder Halbmikro‐), Mikro‐, Submikro‐ und Ultramikroprobe verwendet. Mit p wird der Exponent der Maßzahl 10p bezeichnet. Außer mit der Maßeinheit Gramm (g) kann sie auch mit Milliliter (mL) oder Mol multipliziert werden.
Mit dem Begriff Absolutmassenbereich Q wird der Mengenbereich des Analyten x bezeichnet, zu dessen Quantifizierung ein Analysenverfahren eingesetzt werden soll. Der Gehaltsbereich C ergibt sich schließlich als Quotient aus der Masse des Analyten x (mx) und der Summe aus mx und der Masse der Matrix my, d. h. der Probenmenge insgesamt. Zwei der definierten Größen Probenmassenbereich, Absolutmassenbereich und Gehaltsbereich legen somit die dritte in ihren Grenzen fest.
Je nach Gehaltsbereich (in g/g) unterscheidet man auf den Analyten bezogen Hauptbestandteile von 100 bis 10 % (1–0,1 g/g), Nebenbestandteile von 10 bis 0,1 % (10–1 bis 10–3 g/g) und Spurenbestandteile unter 0,1 %. Der Bereich der Spurenbestandteile wird nochmals in Mikro‐, Nano‐ und Pico‐Spuren unterteilt. Um die Gehaltsbereiche C in %, ppm, ppb oder ppt zu erhalten, ist der Exponent p mit 102, 106 bzw. 109 zu multiplizieren. Die Abkürzung ppm bedeutet „parts per million“ (1 : 106) (1 ppm = 10–4 % = 1 mg/kg = 1 µg/g), ppb „parts per billion“ (amerik. Billion, entsprechend der dtsch. Milliarde; 1 : 109, 1 ppb = 10–7 % = 1 µg/kg = 1 ng/g) und ppt „parts per trillion“ (auch hier amerik. Trillion, dtsch. Billion; 1 : 1012, 1 ppt = 10–10 % = 1 ng/kg = 1 pg/g). Die instrumentelle Spurenanalytik ermöglicht den Vorstoß bis in den ppt‐Bereich und in Einzelfällen sogar noch darunter (ppq = 1 pg/kg = 1 fg/g).
Die klassischen Methoden Gravimetrie, Elektrogravimetrie und Titrimetrie erreichen Gehaltsbereiche von 10–2 bis 10–4 g/L. Da in den meisten Fällen Lösungen zur Messung erforderlich sind, wird hier die Gehaltsangabe g/L verwendet. Daraus kann eine Umrechnung auf den Gehalt in festen Proben (unter Berücksichtigung der Einwaage) erfolgen.
Elektrochemische Methoden wie die Potentiometrie erlauben Analysen bis zu Mikrogramm‐Mengen pro Liter bzw. reichen bis in den Mikrospurenbereich wie bei der Voltammetrie. Photometrie und Fluorimetrie ergänzen sich hinsichtlich der Empfindlichkeiten, wobei die Fluorimetrie um drei Zehnerpotenzen niedrigere Gehalte erfassen kann. Die Atomspektrometrie besitzt eine mit der Chromatographie vergleichbare Leistungsfähigkeit, wobei sie ihren Stellenwert in der Element‐ bzw. Metallanalytik, die Chromatographie dagegen überwiegend in der Analytik organischer Stoffe besitzt. Bei der Chromatographie ist zu beachten, dass erst durch die Kombination der chromatographischen Trennmethode mit einer Detektionsmethode ein vollständiges Analysenverfahren für auch quantitative Analysen vorliegt. Voltammetrie, Fluorimetrie, Atomspektrometrie und Chromatographie werden als besonders nachweisstarke Methoden bezeichnet. Atomspektrometrie und Chromatographie zeichnen sich darüber hinaus durch die Möglichkeiten einer simultanen Analyse vieler Stoffe (anorganischer bzw. organischer) in einem Analysengang aus – die Atomspektrometrie wird daher auch als Multielement‐Methode bezeichnet.
Die Kombination von Methoden und Techniken zur Probenvorbereitung, zum Lösen der Probe (Aufschluss), zur Abtrennung störender Matrix‐Bestandteile mit der eigentlichen Bestimmungsmethode selbst zu einem Analysengang bezeichnet man als Verbundverfahren. Ein Direktverfahren zeichnet sich demgegenüber dadurch aus, dass eine Probe beispielsweise mit Hilfe einer zerstörungsfreien Methode wie der Röntgenfluoreszenzanalyse oder der Feststoff‐Atomabsorptions‐Spektrometrie direkt ohne Zwischenschritte analysiert werden kann.
Instrumentelle Direktbestimmungsmethoden sind in der Regel matrixabhängige Relativmethoden. Eine mathematische Korrektur der sogenannten Elementquerstörungen ist nur in Einzelfällen möglich. Zur Kompensation systematischer Fehler sind daher Referenzstandardmaterialien erforderlich, die in ihrer Zusammensetzung der zu untersuchenden Probe sehr ähnlich sein müssen. Ein optimales Nachweisvermögen und eine optimale Zuverlässigkeit der Ergebnisse kann aber meist nur dann erreicht werden, wenn die zu bestimmende Elementspur zur Anregung des Analysensignals in isolierter Form in einem möglichst geringen Volumen vorliegt. Daher sind für Elementspurenanalysen (auch Spurenanalysen organischer Stoffe) in den meisten Fällen die aufwendigeren Verbund‐ bzw. Mehrschrittverfahren erforderlich.
Systematische Fehler innerhalb der einzelnen Analysenschritte führen zu Blindwerten bzw. zu Verlusten an zu bestimmenden Stoffen. Jeder Teilschritt, vom Aufschließen oder Lösen der Analysensubstanz, über Trenn‐ und Anreicherungsvorgänge bis zum Einbringen der aufbereiteten Probe im messfertigen Zustand ins Analysengerät, erfordert Umsetzungen mit den verschiedensten Chemikalien in mehreren Gefäßen. Da es aber weder absolut reine Chemikalien noch absolut reine Gefäße gibt, wird der ursprüngliche Spurengehalt der Analysensubstanz in jedem Teilschritt durch den Spurenanteil aus den Chemikalien vergrößert. Dieser eingeschleppte Spurenanteil – der Blindwert – kann je nach Reinheit der Chemikalien das Endergebnis derart verfälschen, dass bei Spurenanalysen im ppb‐Bereich ein relativer Fehler von mehreren hundert Prozent entsteht. In umgekehrter Richtung machen sich Adsorptionseffekte und die Verflüchtigung bemerkbar.
Jeder Arbeitsschritt innerhalb eines Verbundverfahrens kann mit einem systematischen Fehler behaftet sein: Blindwerte, Inhomogenitäten der Probe, Probenveränderungen, Wäge‐, Mess‐ und Eich‐ bzw. Kalibrierfehler sind je nach Arbeitsschritt innerhalb eines Verbundverfahrens als die wichtigsten systematischen Fehler zu nennen. Nicht in jedem Fall ist es jedoch möglich, streng zwischen systematischen und zufälligen Fehlern zu unterscheiden (schwankende Fehler, z. B. infolge Inhomogenität einer Probe).
Neben den systematischen Fehlern, deren Ursache – wenn auch oft nur unter großem Aufwand – feststellbar ist, treten bei jedem Analysenverfahren zufällige Fehler auf, deren Betrag die Genauigkeit (Reproduzierbarkeit, Präzision) bestimmt. Bei einer homogenen Analysenprobe lässt sich dieser Zufallsfehler sowohl für Trenn‐ als auch für Bestimmungsschritte getrennt aufgrund des abgebildeten Schemas ermitteln. Zufallsfehler lassen sich nicht vermeiden, sie bestimmen die Präzision, aber nicht die Richtigkeit eines Analysenergebnisses. Der Teilfehler eines Analysenverfahrens wird mit Hilfe der Fehlerauflösung ermittelt: Nach dem Lösen einer homogenisierten Probe werden sechs Teilproben durch Aliquotieren entnommen. Jede dieser Teilprobe wird dem ersten Verfahrensschritt (hier der Trennung) unterworfen. Danach teilt man jede der Teilproben in zwei genau gleiche Hälften und unterwirft jede dem zweiten Teilschritt (hier der Bestimmung einer Komponente). Auf statistischem Wege lassen sich aus den Ergebnissen die Teilfehler ermitteln. Treten systematische Fehler auf, so liegt der wahre Wert außerhalb des durch Zufallsfehler gegebenen Bereiches.
Eine der Aufgaben des Analytikers besteht darin, Analysenwerte bzw. Messergebnisse zu beurteilen. Aus einer begrenzten Anzahl von Messungen (z. B. n = 20) wird als arithmetisches Mittel gebildet (kleine Anzahl von Messungen: Stichprobe). Der Begriff Population beinhaltet eine unbegrenzt große Anzahl von Messungen an demselben Material. Das Teilmengenmittel x stellt eine Abschätzung des Mittels µ der Gesamtpopulation dar; es kommt bei Abwesenheit systematischer Fehler dem wahren Wert sehr nahe. Messwerte können sehr eng beieinander liegen und wenig um den Mittelwert streuen; sie können aber auch weit auseinander liegen und trotzdem den gleichen Mittelwert ergeben. Die beiden Messreihen unterscheiden sich lediglich in der Größe der Standardabweichung, d. h. in der Präzision.
Die Präzision (Reproduzierbarkeit) eines Verfahrens wird als Standardabweichung s angegeben, als Quadratwurzel aus den mittleren Fehlerquadraten:
Die Standardabweichung erhält die gleiche Dimension wie der Mittelwert. Als relative Standardabweichung bezeichnet man den Quotienten aus Mittelwert und Standardabweichung (meist in Prozent). Je kleiner die Standardabweichung (ausgefüllte Punkte in A.), umso größer die Präzision. Bei einer großen Anzahl von Messungen kann die Messwertgröße x in Abhängigkeit von der Häufigkeit des Auftretens in vielen Fällen in Form der Gauß‐ oder Normalverteilung dargestellt werden. Das Kurvenmaximum an der Stelle x = µ ergibt sich aus dem arithmetischen Mittel aller Messwerte. Die Breite der Kurve, die durch den Abstand der beiden Wendetangenten gegeben ist, stellt die Standardabweichung σ dar (Zufallsfehler). 68 % aller Messwerte liegen in dem Bereich −x ± σ. Die Wahrscheinlichkeit (statistische Sicherheit), dass ein mit einem Zufallsfehler behafteter Messwert innerhalb des Bereiches −x ± 2σ liegt, beträgt bereits über 95 %. Das jeweilige Intervall wird als Vertrauensbereich bezeichnet. Die wichtigsten Eigenschaften der Kurve bestehen in der symmetrischen (normalen) Gestalt – für jeden positiven Fehler liegt ein negativer mit gleichem Betrag vor – und der relativen Häufigkeit von Messwerten mit kleiner Abweichung von µ.
Die relative Häufigkeit von Messwerten mit großer Abweichung vom Mittelwert ist dagegen gering: Außerhalb von −x ± 3σ liegen nur 0,26 % der Messwerte.
Der kleinste, mit ausreichender statistischer Sicherheit erfassbare Messwert hängt von der Empfindlichkeit des Verfahrens, vom Blindwert und dessen Streuung ab. Der Messwert an der Nachweisgrenze wn (1. Schema) gibt die obere Grenze des Störpegels (des „Rauschens“ bei einem elektronischen Messgerät) an – mit mindestens drei Blindwert‐Standardabweichungen sb oberhalb des Blindwertes xb. Aufgrund der Blind‐ und der Messwertstreuung werden jedoch nur in 50 % der Fälle durch Analysenwerte an der Nachweisgrenze Messsignale erhalten – die andere Hälfte sind Blindwerte: Die halbe Fläche der Gaußkurve 2 liegt innerhalb des schraffierten Störpegels (1.). Ein Messwert ist mit 99,7%iger Sicherheit (P) vom Störpegel unterschieden, wenn er mit xE = xb + 6sb angegeben werden kann (2.). WE bezeichnet den Messwert, yE den Analysenwert an der Erfassungsgrenze. Sie stellt die kleinste Stoffmenge dar, die von Null signifikant unterschieden werden kann. Die drei Kurven geben die Messwertverteilung der Blindwerte, der Messwerte an der Nachweisgrenze und an der Erfassungsgrenze wieder. In 2. wird das Beispiel einer photometrischen Analyse gezeigt.
Zufallsfehler führen zu positiven und negativen Abweichungen vom wahren Wert, systematische Fehler ergeben Verschiebungen in eine Richtung. Das Bild der Schussverteilung auf einer Schießscheibe zeigt die Unterschiede zwischen statistischen (Zufalls‐) und systematischen Fehlern in anschaulicher Weise.
Im Falle linearer Eichkurven, d. h. linearer Abhängigkeit der Messsignale vom Analysenwert stellt die Steigung der Eichgeraden die Empfindlichkeit E dar. Das Verfahren a weist somit die höchste Empfindlichkeit auf, wenn es sich bei dem dargestellten Beispiel um drei verschiedene Analysenverfahren für einen Stoff handelt (z. B. Vergleich Polarographie, Photometrie, Titrimetrie). Die Koeffizienten der einzelnen Eichfunktionen stellen die partiellen Empfindlichkeiten dar, mit denen die einzelnen (physikalischen) Messgrößen auf die Änderung der Analysengröße (Menge, Konzentration) der verschiedenen Bestandteile (a, b, c) ansprechen. Der Begriff „Eichung“ ist zwar den staatlichen Eichämtern vorbehalten, in den Lehrbüchern wird jedoch weiterhin Eichgerade, ‐funktion, ‐kurve anstelle von, richtiger, Kalibrier‐ … verwendet.
Die quantitative Analyse des Vitamins Riboflavin kann z. B. in Lebensmitteln mit Hilfe der Fluorimetrie erfolgen. Auf der Abszisse wird in diesem Fall der ppm‐Wert (bezogen auf die eingesetzte Probe), auf der Ordinate die gemessene relative Fluoreszenzintensität (hier in % des Messgeräteausschlages) aufgetragen. In der Regel werden Eich‐ bzw. Kalibrierfunktionen über mindestens eine Zehnerpotenz der Konzentration (als Arbeitsbereich) ermittelt. In der Fluorimetrie werden oft geringere lineare Bereiche festgestellt.
Wesentliche Fehlerquellen eines Analysenverfahrens sind Probenahme und die Probenvorbereitung. Systematische Fehler werden durch sogenannte Matrixeffekte hervorgerufen. Weitere Ursachen sind eine falsche Eichung (Kalibrierung) aufgrund ungeeigneter Eichproben und nicht geeigneter Methoden. Nach ihrem Einfluss auf die Messgröße W unterscheidet man additive (konstante), multiplikative (linear dem Messwert proportionale) und nichtlinear messwertabhängige Fehler. Additive Fehler (Kurve 2), z. B. aufgrund nicht erkannter Blindwerte, ergeben eine Parallelverschiebung zur wahren Eichkurve (1). Multiplikative Fehler (Matrixeffekte) verändern den Anstieg der Eichkurve – sie ergeben meist eine niedrigere Steigung (Kurve 3). Bei nichtlinear messwertabhängigen Fehlern wird außer der räumlichen Lage auch die Form der Eichkurve (4) verändert.
Bei einer gravimetrischen Analyse des Phosphors als Phosphat bestehen verschiedene Möglichkeiten in der Fällungs‐ bzw. Wägeform: Phosphor kann nach chemischen Umsetzungen als Molybdatophosphat (E1), Silber‐Thallium‐Phosphat (E2) oder Magnesiumdiphosphat (E3) ausgewogen werden. In der Gravimetrie wird die Empfindlichkeit (E) des Verfahrens durch den stöchiometrischen Faktor angegeben. Die höchste Auswaage wird somit als Molybdatophosphat erhalten.
Diese Eichgerade für eine photometrische Bestimmung zeigt einen linearen Verlauf, die Größe des Blindwertes b anhand des Schnittpunktes mit der Ordinate sowie die Streuung der einzelnen Eich‐ bzw. Messwerte. Wird der Blindwert von den Messwerten subtrahiert oder werden Messungen der Proben gegen die Blindlösung vorgenommen, so verschiebt sich die Gerade durch den Nullpunkt.
Sie zeigt eine Eichkurve für eine photometrische Bestimmung, wobei die Messwerte in Extinktions‐ bzw. Absorptionseinheiten, die Konzentration in 10–5 mol/L angegeben sind. Der Quotient ΔA∕Δc beinhaltet die Empfindlichkeit E dieses Verfahrens.
Am Beispiel einer Kupfer‐Bestimmung wird eine gekrümmte Eichkurve gezeigt, in der ein linearer Bereich bis etwa 5 mmol zu erkennen ist, der als Arbeitsbereich genutzt werden kann.
Um Matrixeffekte erkennen zu können, wird häufig eine Eichung durch Zusatz bekannter Mengen des zu bestimmenden Stoffes durchgeführt. Auf der Abszisse wird die Konzentration nach Zusatz aufgetragen, der Nullwert entspricht dem Messwert der Probe. Der Schnittpunkt der gestrichelten Linie mit der Abszisse ergibt die Konzentration in der Probe (hier mit negativem Vorzeichen).
Der erste wesentliche und das Ergebnis beeinflussende Schritt einer jeder Analyse – nach der Formulierung der Problemstellung und der Analysenstrategie (s. Abschn. 1.2) – bildet die geplante Probenahme.
Das wesentliche Ziel einer Probenahme besteht darin, solche Proben zu gewinnen und zu erhalten (stabilisieren), die repräsentativ sind und gleichzeitig sowohl aufgrund des Probenahmeprogramms als auch der Probenahmetechnik nach Durchführung des gesamten Analysenverfahrens eine problemorientierte Aussage anhand der Resultate ermöglichen. Der Fehleranteil innerhalb eines Analysenganges aus der Probenahme ist in der Regel wesentlich höher als derjenige der Messtechnik selbst.
Eine repräsentative Probenahme von Gasen ist oft besonders schwierig, da Gasproben nicht nur gasförmige, sondern auch Stoffe in flüssigem (Aerosole) und festem Zustand (Staubpartikel) enthalten können. Eine einfache Probenahmetechnik stellt der Einsatz von Probenahmeröhrchen, gefüllt mit Aktivkohle, zur Adsorption organischer Lösungsmitteldämpfe in Verbindung mit einer Balgpumpe zur Volumendosierung dar.
Eine direkte Probenahme gasförmiger Stoffe ist auch mit Hilfe von Behältern aus Glas („Gaswurst“) oder speziellen Kunststoffbehältern möglich, wenn Effekte der Wandadsorption vernachlässigbar sind. Die Probe wird „gezogen“, indem mit Hilfe einer hinter dem Sammelbehälter geschalteten Pumpe Gas durch die Gaswurst gesaugt wird. Nach einer festgelegten Spülzeit werden beide Seiten verschlossen.
Flüssige Absorptionssysteme bieten durch die Wahl der Lösung Möglichkeiten einer selektiven Probenahme. Kleine Gasblasen als Voraussetzung einer effektiven Absorption erhält man in sogenannten Impinger‐Gasflaschen bzw. durch den Einsatz von Glasfritten.
Stichproben, manuell oder auch automatisch aus Leitungen, Gewässern und Abwässern entnommen, geben ein Bild der Wasserqualität (‐güte) zum Zeitpunkt der Entnahme. Mischproben – meist über einen automatischen Probenehmer genommen (s. C.), können zeit‐ oder mengenmäßig zusammengesetzt sein. Eine zeitproportionale Probenahme liegt dann vor, wenn einem Wasserstrom in gleichen Zeitabständen gleiche Volumina für eine Mischprobe entnommen werden. Dem Abfluss proportionale, d. h. veränderliche Volumina werden in konstanten Abständen bei der mengen(abfluss)proportionalen Entnahme verwendet. Eine volumenproportionale Probenahme nimmt konstante Volumina, jedoch zu veränderlichen Zeiten, so dass die Gesamtvolumenentnahme über einen längeren Zeitraum der Durchflussmenge entspricht.
Schöpfbecher für oberflächennahe Schichten bzw. verschließbare Schöpfapparate für tiefere Schichten werden für die manuelle Entnahme von Wasserproben eingesetzt. Bei automatischen Probenahmesystemen wird aus einem kontinuierlichen Probenstrom („fordern“ 1.) nach Impulsschaltung (zeit‐ oder mengenproportional) die Probe in das Probengefäß umgelenkt („dosieren“ 2.) und als Teilprobe für eine Mischprobe 3. und 4. entnommen. Inhaltsstoffe von Wasserproben können sich vor allem durch die Einwirkung von Mikroorganismen verändern – z. B. Nitrat, Nitrit und Ammonium. Andere Stoffe können oxidiert (wie das Sulfid) oder an der Behälterwand adsorbiert werden (Spurenstoffe, z. B. Metallionen oder auch organische Stoffe). Daher ist oft eine Konservierung von Wasserproben erforderlich: Eine Stabilisierung (z. B. von Nitrat/Nitrit/Ammonium) ist z. B. durch Abkühlen auf 4 °C möglich. In anderen Fällen müssen spezielle Zusätze zur Konservierung verwendet werden, die von der Art der zu analysierenden Stoffe abhängen.