หุ่นยนต์อุตสาหกรรมและกลจักรวิทัศน์

Industrial Robotics and Machine Vision

เพื่อให้นักศึกษามีความรู้ความเข้าใจในหลักการทำงานของระบบกลจักรวิทัศน์ (Machine Vision) และฮาร์ดแวร์ที่เกี่ยวข้อง (กล้อง เลนส์ และระบบแสงสว่าง) เพื่อให้นักศึกษาสามารถเขียนโปรแกรมประมวลผลภาพ (Image Processing) ด้วยภาษา Python และไลบรารีมาตรฐาน เช่น OpenCV ได้ เพื่อให้นักศึกษาสามารถประยุกต์ใช้อัลกอริทึมปัญญาประดิษฐ์ (AI/Deep Learning) เช่น YOLO ในการตรวจจับและจำแนกวัตถุอุตสาหกรรมได้ เพื่อให้นักศึกษาสามารถบูรณาการระบบกลจักรวิทัศน์เข้ากับหุ่นยนต์อุตสาหกรรม (Vision-Guided Robotics - VGR) เพื่อสร้างระบบหยิบจับชิ้นงานแบบพลวัต (Dynamic Pick and Place) หรือระบบตรวจสอบคุณภาพได้
เพื่อยกระดับทักษะของนักศึกษาให้ก้าวทันเทคโนโลยี AI และคอมพิวเตอร์วิทัศน์ที่กำลังเป็นที่ต้องการสูงในภาคอุตสาหกรรม โดยเน้นการสร้างระบบอัตโนมัติที่สามารถ "มองเห็นและตัดสินใจได้" แทนการทำงานตามโปรแกรมที่ตายตัวเพียงอย่างเดียว
องค์ประกอบของระบบกลจักรวิทัศน์ ฮาร์ดแวร์ระบบภาพ (กล้อง เลนส์ ระบบแสงสว่าง) ทฤษฎีการประมวลผลภาพดิจิทัลเบื้องต้น การกรองภาพ การตรวจจับขอบเขตและคุณลักษณะของภาพ (Feature Extraction) การสอบเทียบกล้อง (Camera Calibration) การแปลงพิกัดภาพสู่พิกัดหุ่นยนต์ (Image-to-Robot Coordinate Transformation) การเขียนโปรแกรมคอมพิวเตอร์วิทัศน์ด้วยภาษาไพธอน (Python with OpenCV) การประยุกต์ใช้ปัญญาประดิษฐ์สำหรับการตรวจจับวัตถุ (Object Detection e.g., YOLO) โปรโตคอลการสื่อสารข้อมูลระหว่างระบบวิทัศน์และตู้ควบคุมหุ่นยนต์อุตสาหกรรม และการฝึกปฏิบัติการพัฒนาระบบหุ่นยนต์นำทางด้วยภาพ (Vision-Guided Robotics) ในงานอุตสาหกรรม
ชั่วโมงให้คำปรึกษา: อาจารย์ผู้สอนจัดเวลาให้คำปรึกษาเป็นรายบุคคล 2 ชั่วโมง/สัปดาห์ (ระบุช่องทาง On-site และ Online)
มีระเบียบวินัย ตรงต่อเวลา และมีความรับผิดชอบต่องานที่ได้รับมอบหมาย มีความซื่อสัตย์สุจริตทางวิชาการ ไม่คัดลอกซอร์สโค้ด (Source Code) หรือนำโมเดล AI ของผู้อื่นมาแอบอ้างเป็นผลงานของตนเองโดยไม่ได้รับอนุญาตหรือไม่อ้างอิง ตระหนักถึงจริยธรรมในการใช้ข้อมูลภาพ (Data Privacy & Ethics in AI) ในการนำมาฝึกสอนโมเดล (Training Model) ปฏิบัติตามกฎความปลอดภัยในการใช้งานหุ่นยนต์อุตสาหกรรม (ISO 10218) และข้อควรระวังในการใช้อุปกรณ์กล้องและชุดจัดแสง (Lighting) ในห้องปฏิบัติการอย่างเคร่งครัด
ปฐมนิเทศกฎระเบียบความปลอดภัยก่อนเริ่มปฏิบัติการ และเป็นแบบอย่างที่ดีในการปฏิบัติตามกฎ สอดแทรกกรณีศึกษาด้านจริยธรรมปัญญาประดิษฐ์ (AI Ethics) และผลกระทบของการละเมิดลิขสิทธิ์ซอฟต์แวร์/ซอร์สโค้ด ปลูกฝังจิตสำนึกเรื่องความรับผิดชอบผ่านการมอบหมายงานที่มีกำหนดเวลาชัดเจน และให้ความสำคัญกับกระบวนการคิดที่ได้มาซึ่งโค้ดมากกว่าเพียงแค่ผลลัพธ์ที่รันผ่าน
สังเกตพฤติกรรมการเข้าเรียน การส่งงานตรงเวลา และความมีวินัยในห้องปฏิบัติการ ตรวจสอบความซ้ำซ้อนของซอร์สโค้ด (Code Plagiarism) และรายงานโครงงาน ประเมินพฤติกรรมความปลอดภัยขณะปฏิบัติงานร่วมกับหุ่นยนต์และอุปกรณ์วิทัศน์
มีความรู้ด้านฮาร์ดแวร์ของระบบกลจักรวิทัศน์ (เซนเซอร์ภาพ, เลนส์, และเทคนิคการจัดแสง) เข้าใจทฤษฎีการประมวลผลภาพดิจิทัล (Digital Image Processing) เช่น การกรองสัญญาณรบกวน, การแยกแยะขอบ (Edge Detection), และการหาคอนทัวร์ (Contours) มีความรู้ในหลักการเขียนโปรแกรมด้วยภาษา Python และการใช้ไลบรารีทางคอมพิวเตอร์วิทัศน์ (เช่น OpenCV) และอัลกอริทึม Deep Learning (เช่น YOLOv8) เข้าใจหลักการสอบเทียบกล้อง (Camera Calibration) และการแปลงสมการพิกัดทางคณิตศาสตร์จากภาพ 2 มิติ สู่พิกัด 3 มิติของหุ่นยนต์ (Vision-to-Robot Coordinate Transformation)
การบรรยายเชิงปฏิสัมพันธ์ (Interactive Lecture) ประกอบการยกตัวอย่างและกรณีศึกษาจากภาคอุตสาหกรรมจริง การสาธิตการเขียนโปรแกรมแบบสด (Live Coding) เพื่อให้นักศึกษาเห็นผลลัพธ์ของการปรับแก้พารามิเตอร์ของภาพแบบ Real-time การเรียนรู้โดยใช้โครงงานเป็นฐาน (Project-Based Learning) เพื่อเชื่อมโยงทฤษฎีสู่การสร้างระบบจริง
การสอบย่อย (Quiz) เพื่อทบทวนความรู้ด้านทฤษฎีและตรรกะการเขียนโปรแกรม การสอบกลางภาค (ข้อเขียนเน้นฮาร์ดแวร์และการประมวลผลภาพ) และการสอบปลายภาค (ข้อเขียนเน้นสถาปัตยกรรม AI และการบูรณาการระบบ) ตรวจสอบผลลัพธ์ของโปรแกรม (Source Code) ในการแก้โจทย์ปัญหาแต่ละสัปดาห์
สามารถวิเคราะห์ลักษณะทางกายภาพของชิ้นงาน เพื่อออกแบบระบบจัดแสง (Lighting Setup) และเลือกใช้เลนส์ได้อย่างถูกต้องเหมาะสม สามารถคิดวิเคราะห์และเลือกใช้อัลกอริทึม (Rule-based OpenCV หรือ AI-based YOLO) ในการแก้ปัญหาการตรวจจับวัตถุได้อย่างมีประสิทธิภาพ สามารถแก้ปัญหาเฉพาะหน้า (Troubleshooting/Debugging) เมื่อเกิดข้อผิดพลาดในการรับส่งข้อมูลระหว่างคอมพิวเตอร์และหุ่นยนต์อุตสาหกรรม
มอบหมายโจทย์ปัญหาปลายเปิด (Open-ended Problems) ในห้องปฏิบัติการ เช่น การคัดแยกชิ้นงานที่มีตำหนิภายใต้สภาพแสงที่เปลี่ยนแปลง ให้นักศึกษาทดลองปรับจูนพารามิเตอร์ (Hyperparameter Tuning) ของอัลกอริทึม เพื่อวิเคราะห์ว่าค่าใดให้ผลลัพธ์ความแม่นยำ (Accuracy) สูงสุด กระตุ้นให้เกิดการอภิปรายและนำเสนอแนวคิดในการวางสถาปัตยกรรมระบบ (System Architecture) ก่อนลงมือเขียนโค้ด
ประเมินจากความสมเหตุสมผลในการเลือกใช้อัลกอริทึม และประสิทธิภาพของโปรแกรมในการทำงานจริง (รันโค้ดทดสอบกับภาพ Unseen Data) ตรวจประเมินกระบวนการคิดและแนวทางการแก้ปัญหาจากรายงานผลการทดลอง และโครงงาน (Mini Project) การทดสอบแก้ปัญหาเฉพาะหน้า (Troubleshooting Test) ในห้องปฏิบัติการ
สามารถทำงานร่วมกับผู้อื่นในรูปแบบทีมสหวิทยาการ (Cross-functional Team) ได้ เช่น แบ่งหน้าที่เป็นผู้พัฒนา AI (Vision Engineer) และผู้ควบคุมหุ่นยนต์ (Robot Programmer) มีความรับผิดชอบในการบูรณาการระบบ (System Integration) ของตนเองให้สามารถทำงานเชื่อมโยงกับส่วนงานของเพื่อนร่วมทีมได้สำเร็จ มีภาวะผู้นำและผู้ตามที่ดี ยอมรับฟังความคิดเห็นในการแก้ปัญหาความคลาดเคลื่อนของระบบ (System Error)
จัดกลุ่มนักศึกษาทำโครงงานบูรณาการระบบ (Vision-Guided Robotics Project) กำหนดให้มีการแบ่งบทบาทหน้าที่รับผิดชอบอย่างชัดเจนภายในกลุ่ม จัดกิจกรรมระดมสมอง (Brainstorming) และการประชุมกลุ่มย่อยติดตามความก้าวหน้า (Progress Update) เพื่อฝึกการสื่อสารภายในทีม
สามารถคำนวณและประมวลผลเมทริกซ์ภาพทางคณิตศาสตร์ ตลอดจนคำนวณการแปลงพิกัด (Coordinate Transformation & Matrix Multiplication) ได้ มีทักษะการใช้ภาษา Python และการจัดการ Environment, การใช้ Git/GitHub เบื้องต้น และโปรโตคอลการสื่อสาร (TCP/IP Socket Messaging) สามารถรวบรวมข้อมูล จัดทำเอกสารทางวิศวกรรม (เช่น Flowchart, Wiring Diagram) และนำเสนอผลงานด้วยสื่อเทคโนโลยีสารสนเทศได้อย่างเป็นมืออาชีพ
สามารถคำนวณและประมวลผลเมทริกซ์ภาพทางคณิตศาสตร์ ตลอดจนคำนวณการแปลงพิกัด (Coordinate Transformation & Matrix Multiplication) ได้ มีทักษะการใช้ภาษา Python และการจัดการ Environment, การใช้ Git/GitHub เบื้องต้น และโปรโตคอลการสื่อสาร (TCP/IP Socket Messaging) สามารถรวบรวมข้อมูล จัดทำเอกสารทางวิศวกรรม (เช่น Flowchart, Wiring Diagram) และนำเสนอผลงานด้วยสื่อเทคโนโลยีสารสนเทศได้อย่างเป็นมืออาชีพ
มอบหมายแบบฝึกหัดการคำนวณ Scaling Factor และสมการหาค่าความคลาดเคลื่อนทางพิกัด ฝึกปฏิบัติการเขียนโปรแกรม Python สำหรับสื่อสารข้อมูลผ่านระบบเครือข่ายเข้าสู่ตัวแปรของหุ่นยนต์ (KRL/RAPID) ให้นักศึกษาจัดทำสไลด์นำเสนอผลงาน (Presentation) และรายงานโครงงานเชิงวิชาการ
ตรวจสอบความถูกต้องของการคำนวณและการเขียนสมการในรายงานผลการทดลอง ประเมินสมรรถนะการใช้โปรแกรมคอมพิวเตอร์ (Coding Test) ในการจัดการข้อมูลและสื่อสารผ่านเครือข่าย ประเมินทักษะการสื่อสารจากความชัดเจนในการนำเสนอผลงานโครงงานปากเปล่า (Oral Presentation)
มีทักษะและความคล่องแคล่วในการประกอบและติดตั้งฮาร์ดแวร์ระบบภาพ (ประกอบเลนส์เข้ากับกล้องอุตสาหกรรม, การปรับค่า Focus และ Aperture) สามารถปฏิบัติการตั้งค่าและจัดทิศทางของระบบแสงสว่าง (Lighting Setup) เพื่อขับเน้นคุณลักษณะของชิ้นงานได้อย่างแม่นยำ สามารถใช้งานอุปกรณ์ Teach Pendant ในการบังคับหุ่นยนต์เพื่อสอบเทียบจุดอ้างอิงร่วมกับกล้อง (Vision-Robot Calibration) ได้อย่างคล่องแคล่วและปลอดภัย
สาธิตวิธีการจับถือและประกอบเลนส์อย่างถูกวิธีเพื่อป้องกันรอยขีดข่วนหรือฝุ่นละออง ให้นักศึกษาลงมือปฏิบัติจริง (Hands-on) ในการเซ็ตอัปไฟประเภทต่างๆ (เช่น Ring Light, Backlight) แล้วสังเกตความเปลี่ยนแปลงของภาพ (Histogram) ในโปรแกรม ฝึกปฏิบัติการขยับหุ่นยนต์ด้วย Teach Pendant ไปยังจุดพิกัดต่างๆ เพื่อทำ Calibration Board (เช่น กระดานหมากรุก)
การสอบปฏิบัติการ (Practical Test) แบบรายบุคคล โดยประเมินความสามารถในการติดตั้งกล้อง ปรับโฟกัส จัดแสง และบังคับหุ่นยนต์ให้ได้ภาพที่พร้อมสำหรับการนำไปประมวลผลต่อ สังเกตความระมัดระวังและความปลอดภัยในการจัดการกับฮาร์ดแวร์ที่มีความบอบบาง (กล้อง/เลนส์) และเครื่องจักรกลหนัก (หุ่นยนต์) ในขณะทำปฏิบัติการ
กิจกรรมที่ ผลการเรียนรู้ * วิธีการประเมินผลนักศึกษา สัปดาห์ที่ประเมิน สัดส่วนของการประเมินผล
ไม่มีข้อมูล