eltacoasado.com

  

Beste Artikel:

  
Main / Was ist Lesbarkeit in der Messtechnik?

Was ist Lesbarkeit in der Messtechnik?

Messgeräte sind Messgeräte, die die Messgröße oder eine zugehörige Größe in eine Anzeige oder Information umwandeln. Messinstrumente können entweder direkt den Wert der gemessenen Größe anzeigen oder nur deren Gleichheit mit einem bekannten Maß derselben Größe anzeigen. E.

Sie können auch den Wert der kleinen Differenz zwischen der gemessenen Größe und dem Maß angeben, dessen Wert sehr nahe am Komparator liegt. Messinstrumente verwenden normalerweise eine Messsequenz, in der die gemessene Größe in eine Größe umgewandelt wird, die für die Länge, den Winkel, den Schall und den Lichtkontrast des Betrachters wahrnehmbar ist. Messinstrumente können in Verbindung mit separaten Materialmaßnahmen eingesetzt werden. E.

Dies ist der Wertebereich der Messgröße, für den der Fehler, der bei einer einzelnen Messung unter normalen Verwendungsbedingungen auftritt, den maximal zulässigen Fehler nicht überschreitet. Der Messbereich ist durch die maximale und die minimale Kapazität begrenzt. Die maximale Kapazität ist die Obergrenze des Messbereichs und wird durch die Konstruktionsüberlegungen oder durch Sicherheitsanforderungen oder beides bestimmt. Die Mindestkapazität ist die Untergrenze des Messbereichs.

Dies wird normalerweise durch Genauigkeitsanforderungen vorgegeben. Für kleine Werte der gemessenen Größe in der Nähe von Null kann der relative Fehler beträchtlich sein, selbst wenn der absolute Fehler klein ist. Der Messbereich kann mit dem Bereich der Skalenanzeige übereinstimmen oder nicht. Dies ist der Quotient aus der Zunahme der beobachteten Variablen, die durch Zeiger und Skala angezeigt wird, und der entsprechenden Zunahme der gemessenen Größe. Sie ist auch gleich der Länge einer Skalenteilung geteilt durch den Wert dieser Teilung, ausgedrückt als gemessene Größe.

Die Empfindlichkeit kann entlang der Skala konstant oder variabel sein. Im ersten Fall erhalten wir eine lineare Übertragung und im zweiten Fall erhalten wir eine nichtlineare Übertragung.

Dies ist die Differenz zwischen zwei aufeinanderfolgenden Skalenmarkierungen in Einheiten der gemessenen Größe. Bei der numerischen Anzeige ist dies die Differenz zwischen zwei aufeinander folgenden Zahlen. Das Skalenintervall ist ein wichtiger Parameter, der die Fähigkeit des Instruments bestimmt, den Wert der gemessenen Größe genau anzuzeigen. Der Skalenabstand oder die Länge des Skalenintervalls sollte für die Schätzung von Brüchen geeignet sein. Es ist die Fähigkeit des Messgeräts, auf kleine Änderungen der Messgröße zu reagieren.

Dies ist die Differenz zwischen den Anzeigen eines Messgeräts, wenn der gleiche Wert der gemessenen Größe durch Erhöhen oder Verringern dieser Größe erreicht wird.

Das Phänomen der Hysterese beruht auf dem Vorhandensein von Trockenreibung sowie auf den Eigenschaften elastischer Elemente. Dies führt dazu, dass die Lade- und Entladekurven des Instruments durch eine Differenz getrennt werden, die als Hysteresefehler bezeichnet wird. Dies führt auch dazu, dass der Zeiger nicht vollständig auf Null zurückkehrt, wenn die Last entfernt wird. Die Hysterese wird insbesondere bei Instrumenten mit elastischen Elementen festgestellt.

Das Phänomen der Hysterese in Materialien ist hauptsächlich auf das Vorhandensein innerer Spannungen zurückzuführen. Sie kann durch geeignete Wärmebehandlung erheblich reduziert werden. Es ist die Zeit, die nach einer plötzlichen Änderung der gemessenen Größe vergeht, bis das Instrument eine Anzeige gibt, die vom wahren Wert um einen Betrag abweicht, der kleiner als ein gegebener zulässiger Fehler ist. Die Kurve, die die Änderung der Anzeige eines Instruments aufgrund einer plötzlichen Änderung der gemessenen Größe zeigt, kann je nach Beziehung zwischen zu füllenden Kapazitäten, Trägheitselementen und Dämpfungselementen unterschiedliche Formen annehmen.

Wenn Trägheitselemente klein genug sind, um vernachlässigbar zu sein, erhalten wir eine Antwort erster Ordnung, die darauf zurückzuführen ist, dass die Kapazitäten im System über endliche Kanäle gefüllt werden.

Die Kurve der Änderung der Anzeige mit der Zeit ist in diesem Fall eine Exponentialkurve. Siehe Abb. Es gibt drei Reaktionsmöglichkeiten. Siehe Abb. Antwort eines Instruments erster Ordnung. Antwort zweiter Ordnung eines Instruments.

In all diesen Fällen wird die Reaktionszeit durch den Schnittpunkt einer oder zweier Linien bestimmt, die die endgültige Anzeigelinie in einem Abstand umgeben, der dem zulässigen Wert des dynamischen Fehlers mit der Reaktionskurve des Instruments entspricht.

Es ist die Fähigkeit des Messgeräts, jedes Mal, wenn die Messung einer bestimmten Größe wiederholt wird, den gleichen Wert anzugeben. Jeder Messvorgang, der mit einem bestimmten Instrument und einer bestimmten Messmethode durchgeführt wird, unterliegt einer Vielzahl von Variationsquellen wie Umgebungsänderungen, Variabilität der Bedienerleistung und der Instrumentenparameter. Die Wiederholbarkeit wird durch die Streuung der Angaben charakterisiert, wenn dieselbe Menge wiederholt gemessen wird.

Die Dispersion wird durch zwei Grenzwerte oder durch die Standardabweichung beschrieben. Die Bedingungen, unter denen die Wiederholbarkeit getestet wird, müssen angegeben werden. Es ist das Merkmal eines Maßes oder eines Messgeräts, Angaben zum Wert einer Messgröße zu machen, deren Durchschnitt vom wahren Wert dieser Größe abweicht. Der Vorspannungsfehler beruht auf der algebraischen Summierung aller systematischen Fehler, die sich auf die Anzeige des Instruments auswirken.

Vorspannungsquellen sind Fehlanpassungen des Instruments, permanente Einstellung, nichtlineare Fehler, Fehler bei Materialmaßen usw. Dies ist der Gesamtfehler eines Maßes oder Messgeräts unter bestimmten Verwendungsbedingungen, einschließlich Vorspannungs- und Wiederholbarkeitsfehlern. Die Ungenauigkeit wird durch zwei Grenzwerte spezifiziert, die durch Addieren und Subtrahieren des Grenzwerts des Wiederholbarkeitsfehlers zum Vorspannungsfehler erhalten werden. Wenn die bekannten systematischen Fehler korrigiert werden, ist die verbleibende Ungenauigkeit auf die zufälligen Fehler und die verbleibenden systematischen Fehler zurückzuführen, die ebenfalls einen zufälligen Charakter haben.

Messgeräte werden nach ihren messtechnischen Eigenschaften in Genauigkeitsklassen eingeteilt. In der Praxis werden zwei Methoden verwendet, um Instrumente in Genauigkeitsklassen zu klassifizieren.

Die Genauigkeitsklasse kann einfach durch eine Ordnungszahl der Klasse ausgedrückt werden, die eine Idee, aber keinen direkten Hinweis auf die Genauigkeit e gibt. Beide Begriffe sind mit der Messung verbunden, bei der beide die genauen Skalen gemäß den Standardskalen verwenden. In diesem Fall ist die Genauigkeit der Waage wichtig und sie sollte so hergestellt werden, dass ihre Einheiten den eingestellten Standardeinheiten entsprechen. Die Unterscheidung zwischen Präzision und Genauigkeit wird anhand des folgenden in Abb. 1 gezeigten Beispiels deutlich.

Aus Abb. In jedem Satz von Messungen sind die einzelnen Messungen über den Mittelwert gestreut, und die Genauigkeit gibt Auskunft darüber, wie gut die verschiedenen Messungen, die von demselben Instrument an derselben Komponente durchgeführt wurden, miteinander übereinstimmen. Es versteht sich, dass eine schlechte Wiederholbarkeit ein sicheres Zeichen für eine schlechte Genauigkeit ist. Eine gute Wiederholbarkeit des Instruments ist eine notwendige, aber nicht ausreichende Bedingung für eine gute Genauigkeit.

Die Genauigkeit kann ermittelt werden, indem der quadratische Mittelwert der Wiederholbarkeit und des systematischen Fehlers i genommen wird. Der Fehler ist die Differenz zwischen dem Mittelwert des Satzes von Messwerten für dieselbe Komponente und dem wahren Wert.

Weniger ist der Fehler, genauer ist das Instrument. Da der wahre Wert nie bekannt ist, schleicht sich Unsicherheit ein und die Größe des Fehlers muss auf andere Weise geschätzt werden.

Die Schätzung der Unsicherheit eines Messprozesses kann vorgenommen werden, indem systematische und konstante Fehler und andere Beiträge zur Unsicherheit aufgrund der Streuung der Ergebnisse über den Mittelwert berücksichtigt werden. Überall dort, wo bei der Herstellung von Gegenkomponenten eine hohe Präzision erforderlich ist, werden diese in einer einzigen Anlage hergestellt, in der Messungen mit denselben Standards durchgeführt werden und die interne Messgenauigkeit die gewünschten Ergebnisse erzielen kann. Wenn sie in verschiedenen Werken hergestellt und anschließend in einem anderen zusammengebaut werden sollen, ist die Genauigkeit der Messung von zwei Werken mit echtem Standardwert wichtig.

Bei der mechanischen Inspektion ist die Genauigkeit der Messung der wichtigste Aspekt. Die Genauigkeit eines Instruments ist seine Fähigkeit, korrekte Ergebnisse zu liefern. Es ist daher besser, die verschiedenen Faktoren zu verstehen, die es beeinflussen und die davon betroffen sind. Die Genauigkeit der Messung hängt in gewissem Maße auch vom Hör- oder Tastsinn oder Sehsinn ab, z.

Bei bestimmten Instrumenten hängt die Genauigkeit des Lesens von der Erkennung eines Schwelleneffekts ab, d.h. Eines ist sehr sicher, dass es nichts Vergleichbares wie absolute oder perfekte Genauigkeit gibt und es kein Instrument gibt, das uns sagen kann, ob wir es haben oder nicht. Mit anderen Worten, keine Messung kann absolut korrekt sein; und es gibt immer einen Fehler, dessen Höhe von der Genauigkeit und dem Design der verwendeten Messausrüstung und den Fähigkeiten des Bedieners, der sie verwendet, sowie von der für die Messung angewandten Methode abhängt.

Bei einigen Instrumenten hängt die Genauigkeit von der Erkennung eines Schwelleneffekts ab. Bei einigen Instrumenten müssen die Anteile der Unterabteilungen geschätzt werden.

In solchen Fällen ist das Können des Bedieners für die Genauigkeit verantwortlich. Parallaxe ist ebenfalls sehr verbreitet und kann durch Installieren eines Spiegels unter dem Zeiger behoben werden. Wie die Messmethode die Genauigkeit beeinflusst, wird bei der Winkelmessung mit dem Sinusbalken realisiert, d.h.

Geräte und Methoden sollten so ausgelegt sein, dass die Fehler in den Endergebnissen im Vergleich zu Fehlern bei den tatsächlich durchgeführten Messungen gering sind. Die für eine bestimmte Messung ausgewählte Ausrüstung muss in einem gewissen Verhältnis zur gewünschten Genauigkeit des Ergebnisses stehen, und in der Regel sollte ein Instrument verwendet werden, das bis zur nächsten Dezimalstelle abgelesen werden kann, die über die für die Messung erforderliche hinausgeht, d.h.

Wenn versucht wird, eine höhere Genauigkeit in den Messgeräten zu erreichen, werden diese zunehmend empfindlicher. Es kann erkannt werden, dass der Empfindlichkeitsgrad eines Instruments nicht notwendigerweise über den gesamten Bereich seiner Messwerte gleich ist. Eine weitere wichtige Überlegung zur Erzielung einer höheren Genauigkeit besteht darin, dass die für eine gegebene Menge erhaltenen Messwerte immer gleich sein sollten, d.h.

Es kann auch daran erinnert werden, dass der Messbereich normalerweise mit zunehmender Vergrößerung abnimmt und das Instrument stärker von Temperaturschwankungen beeinflusst wird und stärker von den verwendeten Fähigkeiten abhängt.

Es ist also richtig zu sagen, dass ein hochgenaues Instrument sowohl eine größere Empfindlichkeit als auch eine größere Konsistenz besitzt. Gleichzeitig muss ein empfindliches und konsistentes Instrument nicht unbedingt genau sein, da der Standard, nach dem seine Skala kalibriert wird, möglicherweise falsch ist.

Es wird natürlich vorausgesetzt, dass es immer ein Instrument gibt, dessen Genauigkeit größer ist als das, um das es uns geht.

In einem solchen Instrument sind die Fehler bei jedem gegebenen Messwert konstant und daher wäre es durchaus möglich, ihn zu kalibrieren. Es ist sehr offensichtlich, dass eine höhere Genauigkeit erreicht werden kann, indem die Vergrößerungsvorrichtungen in das Instrument eingebaut werden, und diese Vergrößerungsvorrichtungen tragen ihre eigenen Ungenauigkeiten mit sich, z. Im mechanischen System werden die Fehler durch Biegen der Hebel, Spiel an den Drehpunkten, Trägheit der beweglichen Teile, Fehler des Gewindes der Schrauben usw. verursacht.

Wahrscheinlich kann das falsche geometrische Design auch zu Fehlern führen. Je größer die angestrebte Genauigkeit ist, desto mehr Fehlerquellen müssen untersucht und kontrolliert werden.

Die instrumentellen Fehler können so klein wie möglich gehalten werden. Die konstanten oder erkennbaren Fehlerquellen können mit Hilfe überlegener Instrumente bestimmt und das Instrument entsprechend kalibriert werden. Ein genaues Messgerät sollte jedoch die folgenden Anforderungen erfüllen: Ferner müssen die am Standard und am Unbekannten durchgeführten Messvorgänge so identisch wie möglich und unter den gleichen physikalischen Bedingungen wie Umgebungstemperatur usw. sein.

Bei einigen Instrumenten wird die Genauigkeit als Prozentsatz der vollständigen Auslenkung ausgedrückt, d.h. Daher kann bei niedrigeren Messwerten im Bereich die Genauigkeit sehr schlecht sein.

Die Genauigkeit der Messung ist in allen Phasen der Produktentwicklung von der Forschung über die Entwicklung und das Design bis hin zur Produktion, Prüfung und Bewertung, Qualitätssicherung, Standardisierung, Online-Kontrolle, Bewertung der Betriebsleistung, Zuverlässigkeitsschätzung usw. von entscheidender Bedeutung. Das letzte Wort im Zusammenhang mit der Genauigkeit ist, dass die Genauigkeit, auf die wir abzielen, dh die Mühe, die wir unternehmen, um Fehler bei der Herstellung und bei der Messung dieser Fehler während der Inspektion zu vermeiden, von der Arbeit selbst und von der Art der erforderlichen Maßnahmen abhängen muss, d.h.

Das grundlegende Ziel der Messtechnik sollte darin bestehen, die erforderliche Genauigkeit zu den wirtschaftlichsten Kosten bereitzustellen.

(с) 2019 eltacoasado.com