Posted 11 February 2012 - 08:48 AM
ตอบตามประสบการณ์อันน้อยนิดที่มีในการควบคุมเครื่องมือวัด
มันมีสองแบบนะ คือ
1. ตามมาตรฐานนานาชาติ หรือระดับชาติ เช่น JIS/DIN โดยจะบอกว่าในแต่ละช่วงของเครื่องมือวัดต่างๆ ควรจะมีความคลาดเคลื่อนที่ยอมรับได้ประมาณเท่าไหร่
2. กำหนดโดยองค์กรเอง โดยดูจาก tolerance ของชิ้นงาน ยกตัวอย่างเช่น สเปคของชิ้นงานคือ 10 +- 0.5 ดังนั้นค่าความคลาดเคลื่อนที่ยอมรับได้ (Permissible Error) ของเครื่องมือวัดนั้นก็ควรจะไม่มากกว่า 10 เท่าของ tolerance = 0.5+0.5 (สองด้านไง) /10 = 0.1 ครับ
แต่เกณฑ์ข้อ 2 ก็สามารถอนุโลมได้ เนื่องจากหากละเอียดไปเกรงว่าผู้ประกอบการจะหน้ามืดเวลาหาเครื่องมือวัดที่ละเอียดขน
าดนั้นมา ดังนั้นในทางปฏิบัติแล้ว ซัก 1/3 เท่าก็คงเพียงพอที่จะแยกแยะของดีของเสียออกจากกันได้ดังนั้นในกรณีนี้ก็คือ 0.5+0.5/3 = 0.33
จากนั้นเวลาจะตัดสินว่าผลการ Calibrate ที่ได้รับมาจากหน่วยงานสอบเทียบภายนอกนั้น OK หรือไม่ ก็ดูจากค่า Error + Uncertainty (อันนี้จริงๆ ตามข้อกำหนดที่ 7.6 ไม่ได้บังคับนะ ดูแค่ error อย่างเดียวก็ได้) หากไม่เกิน Permissible Error ก็เป็นอันใช้ได้แหละ
แต่ถ้าจะให้เนียนๆ ก็ลองทำ GRR เพื่อหาค่า ndc ดูอีกทีก็ได้ เพื่อให้แน่ใจว่าไอ้เครื่องมือวัดของเรานั้น มันมีความละเอียด หรือมีความสามารถเพียงพอที่จะแยกแยะงานดี งานเสีย เกือบดี เกือบเสีย ได้ จะได้รู้ว่าความสามารถจริงๆ ของมันเป็นไง
ลายเซ็น