ท่านที่สมัครสมาชิกเข้ามาใหม่ กรุณารอให้ Admin ได้ทำการ Validate การเป็นสมาชิก ภายใน 24 ชม.ของวันทำการ ซึ่งระหว่างที่รอ Validation ท่านอาจจะยังไม่สามารถดาวน์โหลดข้อมูลต่างๆ ได้ หากไม่ได้รับความสะดวก กรุณาอีเมลแจ้ง isothainetwork@hotmail.com
Measurement Acceptance Criteria
Started by
csarat
, Feb 11 2012 12:11 AM
1 reply to this topic
#1
Posted 11 February 2012 - 12:11 AM
รบกวนชาว iso ที่มีความรู้การคำนวณหาค่าเกณฑ์การยอมรับเครื่องมือวัดช่วยแชร์หน่อยครับ
#2
Posted 11 February 2012 - 08:48 AM
ตอบตามประสบการณ์อันน้อยนิดที่มีในการควบคุมเครื่องมือวัด
มันมีสองแบบนะ คือ
1. ตามมาตรฐานนานาชาติ หรือระดับชาติ เช่น JIS/DIN โดยจะบอกว่าในแต่ละช่วงของเครื่องมือวัดต่างๆ ควรจะมีความคลาดเคลื่อนที่ยอมรับได้ประมาณเท่าไหร่
2. กำหนดโดยองค์กรเอง โดยดูจาก tolerance ของชิ้นงาน ยกตัวอย่างเช่น สเปคของชิ้นงานคือ 10 +- 0.5 ดังนั้นค่าความคลาดเคลื่อนที่ยอมรับได้ (Permissible Error) ของเครื่องมือวัดนั้นก็ควรจะไม่มากกว่า 10 เท่าของ tolerance = 0.5+0.5 (สองด้านไง) /10 = 0.1 ครับ
แต่เกณฑ์ข้อ 2 ก็สามารถอนุโลมได้ เนื่องจากหากละเอียดไปเกรงว่าผู้ประกอบการจะหน้ามืดเวลาหาเครื่องมือวัดที่ละเอียดขน
าดนั้นมา ดังนั้นในทางปฏิบัติแล้ว ซัก 1/3 เท่าก็คงเพียงพอที่จะแยกแยะของดีของเสียออกจากกันได้ดังนั้นในกรณีนี้ก็คือ 0.5+0.5/3 = 0.33
จากนั้นเวลาจะตัดสินว่าผลการ Calibrate ที่ได้รับมาจากหน่วยงานสอบเทียบภายนอกนั้น OK หรือไม่ ก็ดูจากค่า Error + Uncertainty (อันนี้จริงๆ ตามข้อกำหนดที่ 7.6 ไม่ได้บังคับนะ ดูแค่ error อย่างเดียวก็ได้) หากไม่เกิน Permissible Error ก็เป็นอันใช้ได้แหละ
แต่ถ้าจะให้เนียนๆ ก็ลองทำ GRR เพื่อหาค่า ndc ดูอีกทีก็ได้ เพื่อให้แน่ใจว่าไอ้เครื่องมือวัดของเรานั้น มันมีความละเอียด หรือมีความสามารถเพียงพอที่จะแยกแยะงานดี งานเสีย เกือบดี เกือบเสีย ได้ จะได้รู้ว่าความสามารถจริงๆ ของมันเป็นไง
มันมีสองแบบนะ คือ
1. ตามมาตรฐานนานาชาติ หรือระดับชาติ เช่น JIS/DIN โดยจะบอกว่าในแต่ละช่วงของเครื่องมือวัดต่างๆ ควรจะมีความคลาดเคลื่อนที่ยอมรับได้ประมาณเท่าไหร่
2. กำหนดโดยองค์กรเอง โดยดูจาก tolerance ของชิ้นงาน ยกตัวอย่างเช่น สเปคของชิ้นงานคือ 10 +- 0.5 ดังนั้นค่าความคลาดเคลื่อนที่ยอมรับได้ (Permissible Error) ของเครื่องมือวัดนั้นก็ควรจะไม่มากกว่า 10 เท่าของ tolerance = 0.5+0.5 (สองด้านไง) /10 = 0.1 ครับ
แต่เกณฑ์ข้อ 2 ก็สามารถอนุโลมได้ เนื่องจากหากละเอียดไปเกรงว่าผู้ประกอบการจะหน้ามืดเวลาหาเครื่องมือวัดที่ละเอียดขน
าดนั้นมา ดังนั้นในทางปฏิบัติแล้ว ซัก 1/3 เท่าก็คงเพียงพอที่จะแยกแยะของดีของเสียออกจากกันได้ดังนั้นในกรณีนี้ก็คือ 0.5+0.5/3 = 0.33
จากนั้นเวลาจะตัดสินว่าผลการ Calibrate ที่ได้รับมาจากหน่วยงานสอบเทียบภายนอกนั้น OK หรือไม่ ก็ดูจากค่า Error + Uncertainty (อันนี้จริงๆ ตามข้อกำหนดที่ 7.6 ไม่ได้บังคับนะ ดูแค่ error อย่างเดียวก็ได้) หากไม่เกิน Permissible Error ก็เป็นอันใช้ได้แหละ
แต่ถ้าจะให้เนียนๆ ก็ลองทำ GRR เพื่อหาค่า ndc ดูอีกทีก็ได้ เพื่อให้แน่ใจว่าไอ้เครื่องมือวัดของเรานั้น มันมีความละเอียด หรือมีความสามารถเพียงพอที่จะแยกแยะงานดี งานเสีย เกือบดี เกือบเสีย ได้ จะได้รู้ว่าความสามารถจริงๆ ของมันเป็นไง
ลายเซ็น
0 user(s) are reading this topic
0 members, 0 guests, 0 anonymous users