Professional Documents
Culture Documents
III,
2009/2010>
1. Metrologia – zadania, podział i zastosowanie.
Metrologia, miernictwo, jest to nauka o pomiarach. Obejmuje ona wszystkie
teoretyczne i praktyczne problemy związane z pomiarami, niezależnie od rodzaju
wielkości mierzonej i dokładności pomiarów. Można wyróżnić metrologię:
Nazwa metrologia pochodzi z języka greckiego, w którym μετρον znaczy „miara", a λογοσ— „słowo,
nauka". We współczesnym ujęciu metrologię można określić jako naukę o zapewnieniu środkami
technicznymi i organizacyjnymi poprawności pomiarów we wszystkich dziedzinach nauki, techniki i
gospodarki. Rozwój nauki i techniki jest uwarunkowany napływem rzetelnych i odpowiednio
przetworzonych informacji o otaczającej nas rzeczywistości. Głównym źródłem obiektywnych
informacji o właściwościach zjawisk i ciał są wyniki pomiarów. Najbardziej ogólnie pomiar można
scharakteryzować jako ilościowe wyznaczenie — na drodze empirycznej — jakiejś cechy zjawiska,
ciała lub procesu. W naukach przyrodniczych i technicznych pomiary, obok obserwacji i
eksperymentu, są główną metodą badawczą. Dzięki pomiarom stało się możliwe „tłumaczenie"
świata przyrody i techniki na język matematyki.
W szerszym ujęciu z zagadnieniem pomiaru łączą się nierozerwalnie dwa pojęcia: modelowanie
matematyczne i mierzenie. Modelowanie matematyczne polega na odwzorowywaniu cech
przedmiotów lub zdarzeń — liczbami, a związków między tymi cechami — związkami między
liczbami. Mierzenie zaś jest eksperymentem prowadzącym do wyznaczenia liczb modelujących
konkretne cechy przedmiotów i zdarzeń [Jaworski 1979]. Modelowanie matematyczne prowadzi do
utworzenia skali pomiarowej, cechę zaś, dla której można utworzyć skalę, nazywa się wielkością.
Opierając się na takim rozumieniu pomiaru, można mierzyć różne cechy, np.: masę, ciężar,
temperaturę ciała przyrządami pomiarowymi, a także inteligencję i efektywność dydaktyczną
procesu nauczania (uczenia się) za pomocą standardowych testów, czy też twardość materiału
według skali twardości Mohsa. W ostatnich trzech przypadkach nie można utworzyć jednostki
miary, bowiem skale tych wielkości (inteligencji, efektywności dydaktycznej, twardości) mają
jedynie charakter porządkowy. W węższym, klasycznym ujęciu wielkość {mierzalna) to właściwość
(cecha) zjawiska, ciała lub substancji, którą można wyróżnić jakościowo i wyznaczyć ilościowo
[Międzynarodowy słownik podstawowych ... 1996]. Wyróżnienie jakościowe polega na — mniej lub
bardziej ścisłym — zdefiniowaniu właściwości. Wielkość ponadto musi się dać wyrazić ilościowo, co
sprowadza się do wyznaczenia wartości wielkości, tj. iloczynu liczby i jednostki miary. Zgodnie z
takim pojmowaniem wielkości mierzalnej pomiar polega na wykonaniu czynności doświadczalnych,
mających na celu wyznaczenie wartości określonej wielkości. Klasyczną definicję pomiaru określa
się często inaczej: zmierzyć wielkość — to znaczy ustalić jej stosunek do innej wielkości tego
samego rodzaju przyj ątej za jednostką miary. Międzynarodowy Układ Jednostek Miar — SI obejmuje
jednostki mieszczące się w klasycznym rozumieniu pomiaru (tabl. 1.1). Termin „wielkość" ma w
metrologii dwa znaczenia: ogólne i określone. Wielkość w znaczeniu ogólnym dotyczy właściwości
zjawiska, ciała lub substancji, lecz bez odwołania się do określonego przypadku tej właściwości;
wielkości w tym znaczeniu, ze względu na ogólność, nie można zmierzyć. Na przykład: czas,
długość, prędkość liniowa. Wielkość określona to przypadek właściwości konkretnej, którą można
poznać przez pomiar. Na przykład: średnica wałka, masa odważnika, temperatura krzepnięcia
platyny. Metrologia ma szeroki zakres, obejmuje metrologię ogólną, teoretyczną i prawną, a także
wiele metrologii stosowanych, jak metrologię długości, metrologię czasu, metrologię ciśnienia i
inne, zależne od rodzaju wielkości mierzonej, oraz takie, które są stosowane w określonych
dziedzinach, np. metrologię techniczną, metrologię włókienniczą, metrologię medyczną.
• 7 podstawowych jednostek:
○ metr - m - podstawowa jednostka długości,
○ kilogram - kg - podstawowa jednostka masy,
○ sekunda - s - podstawowa jednostka czasu,
○ amper - A - podstawowa jednostka natężenia prądu elektrycznego,
○ kelwin - K - podstawowa jednostka temperatury,
○ mol - mol - podstawowa jednostka liczności materii,
○ kandela - cd - podstawowa jednostka światłości, natężenia światła,
• 2 jednostki uzupełniające:
○ radian - rad - jednostka miary kąta płaskiego,
○ steradian - sr - jednostka miary kąta bryłowego,
• jednostki pochodne, spójne z jednostkami podstawowymi i
uzupełniającymi,
• przedrostki SI.
Wprowadzenie w 1960 r. Międzynarodowego Układu Jednostek Miar [Malinowski 2000] oraz w latach
dziewięćdziesiątych XX wieku ujednoliconych metod obliczania i wyrażania niepewności pomiaru
ma ogromne znaczenie w interpretacji i porównywaniu wyników pomiarów w skali światowej
[Wyrażanie niepewności pomiaru. Przewodnik 1999]. Międzynarodowy Układ Jednostek Miar został
przyjęty na XI Generalnej Konferencji Miar w 1960 r. Zamiast pełnej nazwy używa się także skrótu
— SI — pochodzącego od słów Systeme International d'Unites. Od początku, z założenia, układ nie
był tworem skończonym, którego nie można poprawiać; dlatego uchwałami kolejnych GKM był
modyfikowany i uzupełniany. Również w przyszłości następne GKM mogą go udoskonalać i włączać
nowe elementy. Międzynarodowy Układ Jednostek Miar — SI stanowi odbicie matematyczności
świata przyrody. Jednostki miar SI zostały uporządkowane pod względem formalnym i ich
matematyczna struktura ma postać iloczynów potęg jednostek podstawowych ze współczynnikami
proporcjonalności równymi jedności (spójność układu). Dzięki konsekwentnemu przestrzeganiu
zasady spójności, każdej wielkości jest przyporządkowana jedna, jednoznacznie określona jednostka
miary. Układ składa się z (tabl. 1.1): 1) 7 jednostek podstawowych, 2) jednostek pochodnych
będących kombinacjami — w postaci iloczynów potęgowych tworzonych w oparciu o równania
definicyjne (wielkościowe) — jednostek podstawowych i dwóch pochodnych bezwymiarowych
(radiana i steradiana); 21 wybranym jednostkom pochodnym, w tym także dwóm bezwymiarowym,
nadano nazwy i oznaczenia specjalne (np. wat —W, lumen — lm, radian — rad).
Na XVII Generalnej Konferencji Miar w 1983 r. została uchwalona obecnie obowiązująca (piąta)
definicja metra: metr jest to długość drogi przebytej w próżni przez światło w czasie 1/299 792 458 s (sekundy).
Metr powinien być realizowany jedną z trzech metod za pomocą: 1) drogi l, którą przebywa w próżni
płaska fala elektromagnetyczna w czasie t; mierzy się czas t, drogę zaś oblicza ze związku ł = c0 · t ,
gdzie prędkość światła w próżni c0 = 299 792 458 m/s, 2) długości w próżni λ płaskiej fali
elektromagnetycznej o częstotliwości /; mierzy się częstotliwość /, natomiast długość fali oblicza ze
związku λ = c0 // , gdzie prędkość światła w próżni c0 = 299 792 458 m/s, 3) jednego z promieniowań
z listy rekomendowanej przez Comite International des Poids et Mesures (CIPM), którego ustalona
długość fali w próżni i usta lona częstotliwość może być w praktyce użyta z podaną w dokumencie
Błąd systematyczny przy wielokrotnym powtarzaniu pomiarów tej samej wielkości określonej, w
warunkach powtarzalności, jest stały. Błąd systematyczny można opisać też inaczej: jest równy
błędowi pomiaru minus błąd przypadkowy. Według [Międzynarodowy słownik ... 1996] błąd
systematyczny jest różnicą, między średnią z nieskończonej liczby wyników pomiarów tej samej
wielkości mierzonej, wykonanych w warunkach powtarzalności, a wartością prawdziwą wielkości
mierzonej.
Warunki powtarzalności zachodzą, gdy:
— pomiary wykonuje się tą samą metodą pomiarową,
— pomiary wykonuje się tym samym przyrządem pomiarowym,
— pomiary wykonuje ten sam obserwator (pomiarowiec, operator),
— pomiary wykonuje się w tym samym miejscu,
— podczas pomiarów panują stałe warunki użytkowania (np. temperatura),
— pomiary są powtarzane w krótkim przedziale czasu.
Sposób usuwania błędów systematycznych, polegający na likwidacji źródła błędu, sprowadza się do
zredukowania do zera lub maksymalnego ograniczenia przyczyny błędu. Oto przykłady likwidacji
lub ograniczenia przyczyn błędów systematycznych w pomiarach długości [Obalski 1966]:
— wprowadzenie klimatyzacji pomieszczenia laboratoryjnego w celu unik nięcia błędów
temperaturowych,
— zredukowanie do zera lub ograniczenie nacisków pomiarowych (w po miarach metodą stykową),
aby uniknąć odkształceń sprężystych,
— stosowanie odpowiednich rozwiązań konstrukcyjnych przyrządów pomia rowych (np. zapewnienie
stałego nacisku pomiarowego, niezależnie od położenia końcówki pomiarowej, korzystne przy
pomiarach metodą różnicową z użyciem wzorca).
Przyczyną błędu nadmiernego może być niewłaściwe zastosowanie przyrządu pomiarowego, mylne
odczytanie wskazania, błąd obliczeniowy, użycie uszkodzonego przyrządu itp. Błędy nadmierne są
znacznie większe od popełnianych błędów przypadkowych. Za kryterium rozstrzygające o uznaniu
błędu za nadmierny uważa się przekroczenie przez błąd pomiaru wartości 4s.
Wynik pomiaru powinien być podany łącznie z niepewnością pomiaru. Z surowego wyniku pomiaru
należy usunąć błędy systematyczne. Niepewność pomiaru podaje się zjedna lub z dwiema cyframi
znaczącymi, wartość wyniku zaś zaokrągla do tego samego miejsca co niepewność pomiaru.
○ Metoda bezpośrednia
○ Metoda pośrednia
○ Metoda złożona
Rodzaje pomiarów:
○ Pomiary niedokładne
○ Pomiary dokładne
○ Pomiary zbyteczne
8. Hierarchia wzorców.
1. ETANOL PIERWOTNY; jest to etalon o najwyższych właściwościach
metrologicznych odnoszących się do określonej wielkości. Etalonu tego
nigdy nie używa się do pomiarów.
2. Etanol odniesienia; jest to etalon, z którym porównuje się etalony o
mniejszej dokładności.
3. Etanol odniesienia i kontrolny; jest to etalon wywzorcowany przez
porównanie z etalonem odniesienia i służący do sprawdzania narzędzi
pomiarowych użytkowych o mniejszej dokładności.
4. Etanol odniesienia i kontrolny i robocze wzorce miar
5. Robocze wzorce miar.