3/3/11

mapa conceptual de la clasificacion de las unidades de medida









MAGNITUD
UNIDAD
.
Nombre
Símbolo
Superficie
metro cuadrado
m2
Volumen
metro cúbico
m3
Velocidad
metro por segundo
m/s
Aceleración
metro por segundo cuadrado
m/s2
Número de ondas
metro a la potencia menos uno
m-1
Masa en volumen
kilogramo por metro cúbico
kg/m3
Caudal en volumen
metro cúbico por segundo
m3/s
Caudal másico
kilogramo por segundo
kg/s
Velocidad angular
radián por segundo
rad/s
Aceleración angular
radián por segundo cuadrado
rad/s2



MAGNITUD
UNIDAD
.
Nombre
Símbolo
Longitud
metro
m
Masa
kilogramo
Kg
Tiempo
segundo
s
Intensidad de Corriente Eléctrica
ampere
A
Temperatura Termodinámica
kelvin
K
Cantidad de Sustancia
mol
mol
Intensidad Lumínica
candela
cd



                                          

importancia de la existencia de un sistema internacional de unidades

IMPORTANCIA DE LA EXISTENCIA DE UN   SISTEMA INTERNACIONAL DE UNIDADES
El sistema internacional de unidades es importante porque con ella podemos medir muchas cosas es decir  todas las partes de un objeto que lo conforman
Todas sus estructuras, etc.

SURGIIMIENTO Y MODIFICACION DEL SISTEMA INTERNACIONAL DE UNIDADES HASTA LLEGAR A LA ACTUAL.
El Sistema Internacional de Unidades (SI), surgió de la necesidad de unificar y dar coherencia a una gran variedad de subsistemas de unidades que dificultaban la transferencia de resultado de mediciones en la comunidad internacional. El Sistema Internacional se convirtió en un sistema que pudiera ser adoptado por todos los países en el campo de la ciencia, la tecnología, las relaciones comerciales, la producción, los servicios, la investigación y la docencia.
HISTORIA:
El Sistema Internacional de Unidades (SI) proviene del Sistema Métrico Decimal. El Sistema Métrico Decimal fue adoptado en la I Conferencia General de Pesas y Medidas (CGPM) y ratificado en 1875 por 15 naciones. Para ese entonces se organizó la Convención del Metro, a la que asistieron representantes de 8 países, y en la que se nombró un Comité Internacional de Pesas y medidas (CIPM), con la finalidad de:
          Estudiar el establecimiento de un conjunto de reglas para las unidades de medida.
          Conocer la opinión de los círculos científicos, técnicos y educativos en todos los países.
          Brindar recomendaciones para el establecimiento de un sistema práctico de unidades de medida para ser adoptado por todos los firmantes de la Convención del Metro.
Con el transcurso del tiempo se desarrollaron otros sistemas de medidas como:
          El Sistema CGS sus siglas representan las unidades: centímetro, gramo y segundo, que fue utilizada principalmente por los físicos.
          El sistema Giorgio conocido como el Sistema MKS, sus siglas representan al metro, el kilogramo y el segundo.
En el siglo XIX se desarrollaron las llamadas unidades eléctricas absolutas: el ohm, el volt y el ampere, impulsadas por el crecimiento de la industria electrotécnica, la cual buscaba la unificación internacional de las unidades eléctricas y magnéticas.
A mediados del siglo XX, después de diversos intercambios entre los medios científicos y técnicos del mundo, la X CGPM adoptó como unidades básicas: el metro, el kilogramo, el segundo, el ampere, el kelvin y la candela. Finalmente, en el año 1960 la resolución XII de la XI CGPM adoptó el nombre de Sistema Internacional de Unidades, cuya abreviatura es SI.
A partir de entonces, a través de las reuniones del CGPM y CIPM se le han añadido modificaciones de acuerdo con los avances de la ciencia y las necesidades de los usuarios del sistema.
Las ventajas que ofrece el SI, sobre todo los demás son múltiples. Entre ellas resaltaremos dos:
          Es universal, ya que abarca todos los campos de la ciencia, la técnica, la economía y el comercio.
          Es coherente, porque no necesita de coeficientes de conversión y todas sus unidades guardan proporcionalidad entre sí, simplificando la estructura de las unidades de medida y sus cálculos, lo que evita errores en su interpretación.

SIGNIFICADO FISICO DE LOS ERRORES DE MEDICION

En metrología, el error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente. Los errores no siguen una ley determinada y su origen está en múltiples causas. Atendiendo a las causas que los producen, los errores se pueden clasificar en dos grandes grupos: errores sistemáticos y errores accidentales estos últimos también conocidos como aleatorios.
Al hacer mediciones, las lecturas que se obtienen nunca son exactamente iguales, aun cuando las efectúe la misma persona, sobre la misma pieza, con el mismo instrumento, el mismo método y en el mismo ambiente (repetitividad). Los errores surgen debido a la imperfección de los sentidos, de los medios, de la observación, de las teorías que se aplican, de los aparatos de medición, de las condiciones ambientales y de otras causas.
Medida del error: En una serie de lecturas sobre una misma dimensión constante, la inexactitud o incertidumbre es la diferencia entre los valores máximo y mínimo obtenidos.
Incertidumbre = valor máximo - valor mínimo
El error absoluto es la diferencia entre el valor leído y el valor convencionalmente verdadero correspondiente.
Error absoluto = valor leído - valor convencionalmente verdadero
El error absoluto tiene las mismas unidades de la lectura.
El error relativo es el error absoluto entre el valor convencionalmente verdadero.
Error relativo = error absoluto
Valor convencionalmente verdadero
Y como el error absoluto es igual a la lectura menos el valor convencionalmente verdadero, entonces:
Error relativo = valor leído -valor convencionalmente verdadero
Valor convencionalmente verdadero
Con frecuencia, el error relativo se expresa en porcentaje multiplicándolo por cien.
Clasificación de errores en cuanto a su origen.
 Errores por el instrumento o equipo de medición: Las causas de errores atribuibles al instrumento, pueden deberse a defectos de fabricación (dado que es imposible construir aparatos perfectos). Estos pueden ser deformaciones, falta de linealidad, imperfecciones mecánicas, falta de paralelismo, etcétera.
El error instrumental tiene valores máximos permisibles, establecidos en normas o información técnica de fabricantes de instrumentos, y puede determinarse mediante calibración.
Errores del operador o por el modo de medición: Muchas de las causas del error aleatorio se deben al operador, por ejemplo: falta de agudeza visual, descuido, cansancio, alteraciones emocionales, etcétera. Para reducir este tipo de errores es necesario adiestrar al operador:
Error por el uso de instrumentos no calibrados: instrumentos no calibrados o cuya fecha de calibración está vencida, así como instrumentos sospechosos de presentar alguna anormalidad en su funcionamiento no deben utilizarse para realizar mediciones hasta que no sean calibrados y autorizados para su uso.
Error por la fuerza ejercida al efectuar mediciones: La fuerza ejercida al efectuar mediciones puede provocar deformaciones en la pieza por medir, el instrumento o ambos.
Error por instrumento inadecuado: Antes de realizar cualquier medición es necesario determinar cuál es el instrumento o equipo de medición más adecuado para la aplicación de que se trate.
Además de la fuerza de medición, deben tenerse presente otros factores tales como:
- Cantidad de piezas por medir
- Tipo de medición (externa, interna, altura, profundidad, etcétera.)
- Tamaño de la pieza y exactitud deseada.
Se recomienda que la razón de tolerancia de una pieza de trabajo a la resolución, legibilidad o valor de mínima división de un instrumento sea de 10 a 1 para un caso ideal y de 5 a 1 en el peor de los casos. Si no es así la tolerancia se combina con el error de medición y por lo tanto un elemento bueno puede diagnosticarse como defectuoso y viceversa.
Errores por puntos de apoyo: Especialmente en los instrumentos de gran longitud la manera como se apoya el instrumento provoca errores de lectura. En estos casos deben utilizarse puntos de apoyo especiales, como los puntos Aire o los puntos Bisel (véase la figura 3.1.7).
Errores por método de sujeción del instrumento: El método de sujeción del instrumento puede causar errores un indicador de carátula está sujeto a una distancia muy grande del soporte y al hacer la medición, la fuerza ejercida provoca una desviación del brazo.
La mayor parte del error se debe a la deflexión del brazo, no del soporte; para miniarlo se debe colocar siempre el eje de medición lo más cerca posible al eje del soporte.
Error por distorsión: Gran parte de la inexactitud que causa la distorsión de un instrumentó puede evitarse manteniendo en mente la ley de Abe: la máxima exactitud de medición es obtenida si el eje de medición es el mismo del eje del instrumento.
Error de paralaje: Este error ocurre debido a la posición incorrecta del operador con respecto a la escala graduada del instrumento de medición, la cual está en un plano diferente El error de paralaje es más común de lo que se cree. Este defecto se corrige mirando perpendicularmente el plano de medición a partir del punto de lectura.
Error de posición: Este error lo provoca la colocación incorrecta de las caras de medición de los instrumentos, con respecto de las piezas por medir.
Error por desgaste: Los instrumentos de medición, como cualquier otro objeto, son susceptibles de desgaste, natural o provocado por el mal uso.
Error por condiciones ambientales: Entre las causas de errores se encuentran las condiciones ambientales en que se hace la medición; entre las principales destacan la temperatura, la humedad, el polvo y las vibraciones o interferencias (ruido) electromagnéticas extrañas.
1. Humedad
2. Polvo
3. Temperatura
Todos los materiales que componen tanto las piezas por medir como los instrumentos de medición, están sujetos a variaciones longitudinales debido a cambios de temperatura. Para minimizar estos errores se estableció internacionalmente, desde 1932, como norma una temperatura de 20″C para efectuar las mediciones. En general, al aumentar la temperatura crecen las dimensiones de las piezas y cuando disminuye la temperatura las dimensiones de las piezas se reducen.
CLASIFICACION DE LOS ERRORES Y LAS CAUSAS QUE LO ORIGINAN
          ERROR ACCIDENTAL: Aquellos que se producen debido a un error por causas cualesquiera y que no tienen por qué repetirse. Ejemplo: Leemos en el cronómetro 35 s y escribimos en el cuaderno 36 s.
          ERROR SISTEMATICO:Se debe a una mala realización de las medidas que se repite siempre. Ejemplos: Se hacen medidas con un aparato que tenga un defecto de fabricación, miramos siempre la probeta desde un ángulo equivocado (error de paralaje)

Por otra parte cuando realizamos una medida nos alejamos siempre algo del valor real de la magnitud. Para determinar la precisión de una medida usamos dos tipos de errores:
          ERROR ABSOLUTO: desviación entre el valor medido y el valor real. Tiene las mismas unidades que la magnitud medida.
          ERROR RELATIVO: Cociente entre el error absoluto y el valor real. Es adimensional. Nos da una idea más exacta de la precisión a la hora de comparar dos o más medidas.
O         Ejemplo:
         Al medir la longitud de una mesa de 120 cm hemos dado como resultado 118 cm. Calcula el error absoluto y relativo.
         Haz los mismos cálculos si al medir la distancia entre Mueres y Oviedo 20 Km obtenemos un resultado de 20,5 km.
         Cuál de las dos medidas será más precisa.

TIPOS DE ERROR EN LAS MEDICIONES
 ERRORES INSTRUMENTALES:
1. Defectos de fabricación.
2. Deformaciones.
3. Falta de linealidad.
4. Falta de paralelismo.
5. Fricción excesiva en partes móviles.
6. Histéresis.
7. Envejecimiento de materiales.
 ERRORES HUMANOS:
1. Uso de instrumentos no calibrados.
2. Excesiva fuerza usada al efectuar mediciones.
3. Uso del instrumento inadecuado.
4. Error por puntos de apoyo.
5. Error de sujeción del instrumento.
6. Error de paralaje,
7. Error de posición.
 ERRORES AMBIENTALES:
1. Humedad.
2. Polvo y contaminación.
3. Presión.
4. Temperatura.

PATRON DE MEDICION
Un patrón de medición es una representación física de una unidad de medición. Una unidad se realiza con referencia a un patrón físico arbitrario o a un fenómeno natural que incluye constantes físicas y atómicas. Por ejemplo, la unidad fundamental de masa en el Sistema Internacional (SI) es el kilogramo.
Tipos de PATRONES DE MEDICION
PATRONES INTERNACIONALES: se definen por acuerdos internacionales. Representan ciertas unidades de medida con la mayor exactitud que permite la tecnología de producción y medición. Los patrones internacionales se evalúan y verifican periódicamente con mediciones absolutas en términos de unidades fundamentales.
PATRONES PRIMARIOS (básicos): se encuentran en los laboratorios de patrones nacionales en diferentes partes del mundo. Los patrones primarios representan unidades fundamentales y algunas de las unidades mecánicas y eléctricas derivadas, se calibran independientemente por medio de mediciones absolutas en cada uno de los laboratorios nacionales.
PATRONES SECUNDARIOS: son los patrones básicos de referencia que se usan en los laboratorios industriales de medición. Estos patrones se conservan en la industria particular interesada y se verifican localmente con otros patrones de referencia en el área. La responsabilidad del mantenimiento y calibración de los patrones secundarios depende del laboratorio industrial.
PATRONES DE TRABAJO: son las herramientas principales en un laboratorio de mediciones. Se utilizan para verificar y calibrar la exactitud y comportamiento de las mediciones efectuadas en las aplicaciones industriales.
La unidad de masa métrica se definió como la masa de un decímetro cúbico de agua a una temperatura de máxima densidad. La representación material de esta unidad es el Kilogramo.
La libra (lb), establecida por la Wright and Mesures Acto, de 1963, se define como .45359237 kg exactamente.
La unidad métrica de longitud, el metro, se definió como la 1/104 parte del cuadrante meridiano que para a través de París.
La yarda se define como .9144 metros y una pulgada es 25.4 mm, ya que los patrones de unidades inglesas para medición se basan en patrones métricos.
La unidad de volumen es una cantidad derivada y no se representa por medio de un patrón internacional.
IMPORTANCIA DE LA TOLERANCIA Y LOS AJUSTES EN EL DISEÑO MECANICO
INTRODUCCIÓN Actualmente en cualquier producción de materiales existe la necesidad de imponer un análisis cuidadoso para poder lograr, desde el principio de elaboración la eliminación de problemas de ensamble. Es muy importante que el patrón sea el totalmente adecuado ya que determinara el tamaño en sus dimensiones. Sin embargo hay varios factores que afectan al resultado de lo que se desea obtener, algunos de los factores pueden ser el calentamiento de la máquina, el desgaste de las herramientas, así como problemas en los materiales, entre otros. Para ello es importante que se admitan algunas variaciones en las dimensiones especificadas tomando en cuenta que no alteren los requerimientos funcionales que se procuran satisfacer.
LA TOLERANCIA: es la cantidad total que le es permitido variar a una dimensión especificada, donde es la diferencia entre los límites superior e inferior especificados. El ajuste ocurre al ensamblar piezas, donde es la cantidad de juego o interferencia que resulta del ensamble.
Los ajustes pueden clasificarse de la siguiente manera:
            Con juego.
            Indeterminado o de transición.
            Con interferencia, contracción o forzado.
El tipo de ajuste es seleccionado a base de los requerimientos. Por ejemplo cuando se desea que una pieza se desplace dentro de la otra se utiliza un ajuste con juego, el ajuste forzado se utiliza cuando se desea que las dos piezas queden firmemente sujetas, y el ajuste deseado se logra aplicando tolerancias adecuadas a cada una de las partes ensambladas.
Las formas de expresar las tolerancias de la forma del dimensionamiento límite, en el cual el límite superior especificado se coloca arriba del límite inferior especificado. Cuando se expresa en un solo renglón, el límite inferior precede al superior y un guión separa los dos valores.
Otra forma de expresar las tolerancias se basa en el sistema ISO donde la dimensión especificada antecede a la tolerancia expresada mediante una letra y un número. La tolerancia depende de la dimensión, entre mayor sea la dimensión mayor puede ser la tolerancia. El tipo de ajuste se determina dependiendo de las dimensiones, ya que para piezas que se ensamblan es necesario analizar la interferencia máxima o mínima, esto depende de las dimensiones reales de las piezas que se ensamblan y de  las tolerancias. Por ejemplo, para determinar la interferencia mínima solo basta en pensar que éste ocurrirá cuando ambas partes por ensamblar están en condición de material máximo, esto será la diferencia entre las dos. Sin embargo la interferencia máxima su condición de material debe estas dada en mínimo y eso será la diferencia entre las dos.
CONCLUSIÓN Las tolerancias son muy importantes en la elaboración, fabricación de cualquier material que es utilizado en la Industria ya que permite tener un mínimo grado de diferenciación, esto permitirá variar un poco a la dimensión especificada ya que al momento de estar en la fabricación existe la posibilidad de que haya variaciones en el material o en los instrumentos ya que en ocasiones las maquinas se calientan demasiado o simplemente exista un desgaste en las herramientas estas son causas de las tolerancias que se producen.


CONCLUCION
Concluyo que este trabajo fue muy interesante  para mí porque pude conocer diferentes tipos de mediciones y errores que se cometen en industrias y eso me hace reflexionar muchas cosas que al momento de realizar una cosa debemos tratar de  cometer menos errores porque nos podía causar muchas consecuencias por eso debemos de tener encuentra siempre la  materia de metrología porque es la que nos va a llevar a solucionar nuestros problemas de medición es por eso que tenemos de tener siempre en cuenta.