คลังเก็บป้ายกำกับ: COMPUTER_VISION

แนะนำ 6 คอร์สออนไลน์ฟรีด้าน AI, Machine Learning และ Deep Learning โดย Forbes

Forbes ได้ออกมาแนะนำ 6 คอร์สออนไลน์ฟรีๆ ที่สอนด้านเทคโนโลยี AI, Machine Learning, Deep Learning จากบริษัทและมหาวิทยาลัยชั้นนำ จึงขอนำมาสรุปให้เป็นประโยชน์แก่ผู้อ่านทุกท่านดังต่อไปนี้

 

Credit: ShutterStock.com

 

1. Learn with Google AI

คอร์สนี้เปิดอยู่ที่ https://ai.google/education/ โดย Gogole ได้จัดคอร์สเรียนฟรีด้าน Machine Learning และการใช้เครื่องมืออย่าง TensorFlow ในการทำ AI โดยเหมาะกับผู้เรียนที่ยังไม่มีพื้นด้าน Machine Learning มาก่อนเลย และยังสามารถเลือกเรียนคอร์สที่สนใจก่อนได้ด้วย

 

2. Google: Machine Learning

คอร์สนี้เปิดอยู่ที่ https://www.class-central.com/course/udacity-deep-learning-5681 โดยเหมาะกับผู้ที่มีพื้นฐานด้าน Machine Learning มาบ้างอยู่แล้วไปจนถึงมีความคุ้นเคยกับแนวคิดของการทำ Supervised Learning มาก่อน เหมาะสำหรับผู้ที่ต้องการจะเป็น Data Analyst หรือ Data Scientist ที่ต้องการลงลึกด้าน Machine Learning และ Deep Learning ให้มากยิ่งขึ้น

 

3. Stanford University: Machine Learning

คอร์สนี้เปิดอยู่ที่ https://www.coursera.org/learn/machine-learning โดยเป็นคอร์สบน Coursera ที่สอนโดย Andrew Ng ผู้โด่งดัง ซึ่งผู้เรียนสามารถเลือกที่จะจ่ายเงินอัปเกรดคอร์สเพื่อให้ได้รับ Certificate เมื่อเรียนจบได้ด้วย ซึ่งเนื้อหาจะครอบคลุมถึงการประยุกต์นำ Machine Learning มใช้จริงในกรณีต่างๆ เช่นการทำ Speech Recognition ไปจนถึงการปรับปรุงระบบ Web Search และยังลงลึกด้านเนื้อหาเชิงเทคนิคและสถิติหรือคณิตศาสตร์ด้วย

 

4. Columbia University: Machine Learning

คอร์สนี้เปิดอยู่ที่ https://www.class-central.com/course/edx-machine-learning-7231 และเป็นอีกคอร์สหนึ่งที่สามารถจ่ายเงินอัปเกรดเพื่อรับ Certificate ตอนที่เรียนจบได้ โดยจะเน้นเรื่องของการฝึก Model, การใช้วิธีการต่างๆ ในการแก้ไขปัญหา ครอบคลุมทั้งการทำ Supervised Learning และ Unsupervised Learning

 

5. NVIDIA: Fundamentals of Deep Learning for Computer Vision

คอร์สนี้เปิดอยู่ที่ https://www.class-central.com/course/fundamentals-of-deep-learning-for-computer-vision-10730 โดยเหมาะสำหรับผู้ที่สนใจจะเจาะลึกด้านการทำ Computer Vision โดยเฉพาะ ซึ่งเนื้อหาจะครอบคลุมพื้นฐานเชิงเทคนิคด้านการทำ Cmputer Vision เพื่อทำ Object Recognition และ Image Classification โดยเฉพาะ รวมถึงยังมีการสอนเนื้อหาเกี่ยวกับการประยุกต์นำ GPU มาใช้เพื่อเร่งความเร็วในการประมวลผลให้สูงขึ้นด้วย

 

6. MIT: Deep Learning for Self Driving Cars

คอร์สนี้เปิดอยู่ที่ https://selfdrivingcars.mit.edu/ โดยจะเน้นสอนเทคโนโลยีที่เกี่ยวข้องกับการสร้างรถยนต์ไร้คนขับโดยเฉพาะ ซึ่งเนื้อหาจะครอบคลุมทั้งการนำ AI มาใช้วิเคราะห์ภาพ, ข้อมูลจาก Sensor ไปจนถึงการแปลงสัญญาณจากสมอง, ตา, หู และการสัมผัส เพื่อใช้ในการควบคุมรถยนต์

 

ที่มา: https://www.forbes.com/sites/bernardmarr/2018/04/16/the-6-best-free-online-artificial-intelligence-courses-for-2018/#219758bf59d7

from:https://www.techtalkthai.com/free-6-ai-machine-learning-deep-learning-online-courses-by-forbes/

Advertisements

Flippy หุ่นยนต์ทำเบอร์เกอร์ ที่ไม่ได้เป็นแค่แขนกลตั้งเวลาย่างเนื้อ

ถึงตอนนี้ทุกคนคงรู้ดีกันอยู่แล้วว่าหุ่นยนต์สามารถทำงานแทนคนได้หลายอย่าง ไม่ว่าจะเป็นงานสายการผลิตในโรงงาน, งานประชาสัมพันธ์และต้อนรับในโรงแรม แน่นอนว่ามีแม้กระทั่งหุ่นยนต์ปรุงอาหารในร้านอาหาร และ Flippy หุ่นยนต์นักทำเบอร์เกอร์ ผลงานการพัฒนาโดย Miso Robotics ก็คือหนึ่งในนั้น มันไม่ได้เป็นแค่หุ่นยนต์แขนกลธรรมดาที่ย่างเบอร์เกอร์ไปวันๆ มันมองเห็น คิดเป็น และถูกออกแบบมาให้ทำงานร่วมกับคนได้

ในบรรดาหุ่นยนต์สารพัดประเภท หุ่นยนต์แบบแขนกลเป็นประเภทที่พบเจอได้บ่อยมากในสายการผลิตต่างๆ ของโรงงานอุตสาหกรรม ด้วยการเคลื่อนไหวที่แม่นยำ ทรงพลังด้วยแรงขับจากลมและไฟฟ้า ทำงานได้อย่างเที่ยงตรง ทำซ้ำได้เหมือนกันแทบไม่ผิดเพี้ยนเลยทุกรอบที่มันทำงาน มันจึงรับหน้าที่ทำงานแทนคนในหลายตำแหน่งที่ต้องขยับและเคลื่อนไหวซ้ำๆ

Flippy เองที่แม้จะเป็นหุ่นยนต์แบบแขนกลเช่นกัน หากแต่มันเองมีความสามารถพิเศษที่แตกต่างออกไป ในขณะที่หุ่นยนต์แขนกลที่ใช้กันโดยมากในสายการผลิตจะเคลื่อนไหวด้วยรูปแบบไม่กี่รูปแบบตามโปรแกรมที่ถูกตั้งเอาไว้ ด้วยเงื่อนจังหวะและสัญญาณที่เข้ามาจากเซ็นเซอร์ แต่ Flippy มีการทำงานที่ยืดหยุ่นมากกว่าเพราะมันมี “ดวงตา” วิเคราะห์ภาพที่มันมองเห็น

เป้าหมายของ Miso Robotics คือพัฒนา Flippy เพื่อรับบทบาทเป็นผู้ช่วยคนครัวเรื่องงานย่างเนื้อและส่วนประกอบอื่นๆ บนเตาเหล็กร้อน ด้วยกล้องถ่ายภาพที่ติดอยู่เหนือแขนกลทำงานร่วมกับซอฟต์แวร์วิเคราะห์ภาพ Flippy จะรู้ได้ว่าสิ่งที่อยู่บนเตานั้นคืออะไร เนื้อเบอร์เกอร์, เนื้อไก่, ขนมปัง, หรือชีส? มันยังรู้ระดับความสุกของเนื้อได้จากการวิเคราะห์ภาพด้วย ทำให้มันสามารถกลับด้านเนื้อได้ในช่วงเวลาที่เหมาะสม และตักส่วนประกอบเบอร์เกอร์ออกจากเตา

Flippy ยังไม่สามารถเตรียมเบอร์เกอร์ได้ด้วยตนเองทุกขั้นตอน การนำวัตถุดิบขึ้นเตา, การจัดเรียงวัตถุุดิบซ้อนกันเป็นเบอร์เกอร์ รวมทั้งการปรุงรสต่างๆ ยังต้องอาศัยคนในการทำงาน แต่การที่มี Flippy ช่วยแบ่งเบางานหน้าเตา ก็น่าจะทำให้สามารถเพิ่มความเร็วในการทำงานโดยรวมได้

ล่าสุด Flippy ได้เริ่มงานจริงแล้วที่ร้าน CaliBurger ใน California แต่หลังเริ่มทำงานไม่นาน Miso Robotics ก็ตัดสินใจที่จะให้ Flippy พักงานชั่วคราวเพื่อรับการอัพเกรดเพิ่มเติม แม้ในการทำงานจริง Flippy จะยังไม่ดูฉลาดเหมือนในวิดีโอโปรโมตมันนัก การตักเบอร์เกอร์ใส่ถาดเตรียมยังดูขาดๆ เกินๆ อยู่บ้าง แต่ก็ต้องนับว่า Flippy เป็นหุ่นยนต์ที่ทำงานในครัวได้จริงแล้ว

ที่มา – The Verge

from:https://www.blognone.com/node/100551

เปิดตัว Facebook Detectron โครงการ Open Source สำหรับทำ Object Detection

Facebook AI Research (FAIR) ได้ออกมาประกาศเปิด Open Source ให้กับ Detectron ซึ่งเป็น Platform สำหรับการทำ Object Detection ในรูปภาพโดยเฉพาะ

Credit: Facebook

 

Detectron นี้เป็นโครงการที่ริเริ่มกันมาตั้งแต่เดือนมิถุนายน 2016 เพื่อสร้างระบบ Object Detection ที่มีความเร็วสูงและนำไปใช้งานได้อย่างยืดหยุ่น โดยพัฒนาต่อยอดมาจาก Caffe2 จนปัจจุบันได้กลายเป็นเบื้องหลังให้กับโครงการต่างๆ ภายใน Facebook เองเป็นจำนวนมาก ทั้ง Mask R-CNN และ Focal Loss for Dense Object Detection โดยอัลกอริธึมเหล่านี้บน Detectron จะสามารถช่วยสร้าง Model ที่จำเป็นต่องานทางด้าน Computer Vision ได้อย่างรวดเร็วและแม่นยำ

นอกจากนี้ภายใน Facebook เองก็ยังได้มีการนำ Detectron ไปใช้ต่อยอดกับระบบ Augmented Reality (AR) และการทำ Community Integrity ด้วย โดย Model ที่ได้มาจาก Detectron นี้สามารถนำไปใช้ได้ทั้งบน Cloud และในอุปกรณ์ Mobile

เป้าหมายของ Facebook ในการออกมาเปิด Open Source ให้กับ Detectron ก็คือการช่วยเร่งให้โครงการวิจัยทั่วโลกนั้นสามารถก้าวหน้าต่อไปได้อย่างรวดเร็วยิ่งขึ้น โดย License ที่ใช้ในการเปิด Open Source ครั้งนี้คือ Apache 2.0 ส่วนผู้ที่สนใจสามารถศึกษารายละเอียดเพิ่มเติมได้ที่ https://github.com/facebookresearch/Detectron ครับ

 

ที่มา: https://research.fb.com/facebook-open-sources-detectron/

from:https://www.techtalkthai.com/facebook-detectron-object-detection-is-now-an-open-source-project/

ล้ำไปอีกขั้น Pornhub นำปัญญาประดิษฐ์เข้ามาช่วยจัดการเนื้อหาให้ดียิ่งขึ้น

Pornhub ผู้ให้บริการเนื้อหาภาพยนต์สำหรับผู้ใหญ่เบอร์หนึ่งของโลก นำปัญญาประดิษฐ์มาช่วยเพิ่มประสิทธิภาพในการจัดการเนื้อหาบนเว็บไซต์ โดยติดป้ายกำกับเพื่อจัดหมวดหมู่ให้เหมาะสม

เป้าหมายหลักของการนำปัญญาประดิษฐ์มาใช้คือ เพิ่มความแม่นยำในการค้นหาภาพยนต์ให้แก่ผู้ใช้งาน และลดความยากลำบากในการตรวจสอบความถูกต้องของป้ายกำกับ เนื่องยอดอัพโหลดวิดีโอที่มีมากกว่า 10,000 เรื่องต่อวัน งานหลักเท่าที่เผยแพร่ออกมามีสองชิ้นคือ ตรวจจับดาราหนังเพื่อระบุและกำกับรายชื่อนักแสดง และตรวจจับลักษณะท่าทางการร่วมรักเพื่อติดป้ายกำกับแนวภาพยนต์

เทคนิคการทำงานเปิดเผยรายละเอียดมาเพียงคร่าว ๆ ว่าระบบจะนำวิดีโอมาสแกนภาพทุก ๆ เฟรม แล้วส่งไปให้ตัวแบบแยกแยะออกมาว่าวิดีโอที่กำลังประมวลผลอยู่นั้นอยู่ในหมวดหมู่ใด โดยตัวแบบแต่ละตัวจะถูกฝึกมาจากข้อมูลหลายพันตัวอย่างที่ประกอบไปด้วย ชื่อ ภาพใบหน้าของดาราคนนั้น และท่าทางขณะกำลังร่วมรัก ต้นทางระบุว่าระบบของทางเว็บไซต์สามารถแสดงผลลัพธ์การแยกแยะชื่อและท่าทางการร่วมรักออกมาได้หลายแบบพร้อม ๆ กันขณะกำลังทำงาน

alt="ภาพประกอบจาก Engadget"(ภาพจำลองการทำงานของระบบคร่าว ๆ ในฉบับ Pornhub)

alt="ภาพประกอบจาก DIUS"(ภาพตัวอย่างการทำงานของตัวแบบด้วยเทคนิค Faster R-CNN ทาง Pornhub ไม่ได้ระบุมาว่าใช้เทคนิคตัวไหนนะครับ)

อย่างไรก็ดี ตัวแบบยังไม่สามารถแยกแยะนักแสดงที่ถูกการบดบังวิสัยทัศน์ของใบหน้าและท่าทางนักแสดงมากเกินไป เช่นวิดีโอประเภท การลงโทษโดยมีพันธนาการ เนื่องจากมีอุปกรณ์มากมายนั่นเอง รวมถึงวิดีโอที่มีเพียงภาพบางส่วนของร่างกาย เช่น วิดีโอที่มีแต่เท้า ซึ่งตัวแบบจะไม่สามารถระบุได้ว่าใครคือนักแสดง

มากไปกว่านั้นทางเว็บก็จะเปิดให้ผู้ใช้มาร่วมด้วยช่วยกันฝึกตัวแบบคนละไม้คนละมือ โดยยืนยันความถูกต้องของตัวแบบด้วยการโหวต (คล้ายกับที่เราฝึกตัวแบบให้ Google Capcha โดยการระบุภาพให้ตรงคำบรรยาย)

ทางเว็บไซต์วางแผนไว้ว่าจะนำวิดีโอทั้งหมดราว 5 ล้านเรื่องมาตรวจสอบจนครบภายในปีหน้า

ที่มา – Engadget, Pornhub

ส่วนตัวคิดว่าอาการเมาวิดีโอของทีมงานก็จะลดลงไปพอสมควรด้วยเช่นกัน

from:https://www.blognone.com/node/96245

เปิดตัว Intel Movidius Myriad X ระบบ Vision Processing Unit (VPU) สำหรับงาน AI ใน Drone และหุ่นยนต์

สัปดาห์ที่ผ่านมา ทาง Intel ได้ทำการเปิดตัว Intel Movidius Myriad X ระบบ Vision Processing Unit (VPU) สำหรับงาน AI ใน Drone, หุ่นยนต์, Smart Camera และ Virtual Reality โดยเฉพาะ

Credit: Intel

 

Myriad X นี้เป็นระบบ System-on-Chip (SOC) ที่มี Neural Compute Engine สำหรับเร่งการประมวลผล Deep Learning อยู่ภายในตัว โดยมีประสิทธิภาพสูงและกินพลังงานไฟฟ้าน้อย ทำให้สามารถประมวลผลและทำความเข้าใจภาพหรือข้อมูลแวดล้อมได้ในแบบ Real-time ด้วยประสิทธิภาพระดับ 1 Trillion Operations per Second (TOPS)

Myriad X ถูกออกแบบมาสำหรับการทำ Edge Computing สำหรับงานทางด้าน Computer Vision และ Deep Learning โดยเฉพาะ เพื่อให้อุปกรณ์ต่างๆ สามารถทำงานและปรับเปลี่ยนพฤติกรรมไปตามสภาพแวดล้อมได้โดยอัตโนมัติ ซึ่งภายใน Myriad X นั้นจะประกอบไปด้วยความสามารถดังต่อไปนี้

  • Programmable 128-bit VLIW Vector Processor สามารถประมวลผล Imaging และ Vision หลายงานได้พร้อมกันด้วย Vector Processor จำนวน 16 ชุด ที่ถูกออกแบบมาสำหรับรองรับงาน Computer Vision โดยเฉพาะ
  • 16 MIPI Lanes ที่สามารถเชื่อมต่อกล้องแบบ HD RGB ได้ถึง 8 ชุด แลรองรับการประมวลผลภาพถึง 700 ล้าน Pixel ต่อวินาที
  • Vision Accelerator จำนวน 20 ชุดสำหรับรองรับงานประมวลผลภาพได้อย่างรวดเร็ว
  • 2.5MB Homogenous On-Chip Memory หน่วยความจำภายในมี Bandwidth ถึง 450GB/s ทำให้มี Latency ต่ำ และลดการใช้พลังงานลงได้เป็นอย่างมาก

สำหรับรายละเอียดฉบับเต็ม สามารถศึกษาได้ที่ https://newsroom.intel.com/press-kits/movidius/ ครับ

หลังจากนี้ไปเราคงจะได้เห็นหน่วยประมวลผลเฉพาะทางสำหรับงานต่างๆ เกิดขึ้นมาอย่างต่อเนื่องครับ ก็ต้องติดตามเทคโนโลยีให้หลากหลายกันมากขึ้น เพื่อให้สามารถเลือกนำเทคโนโลยีที่เหมาะสมที่สุดมาใช้กับงานของเราได้ครับ

 

ที่มา: https://newsroom.intel.com/news/intel-unveils-neural-compute-engine-movidius-myriad-x-vpu-unleash-ai-edge/

from:https://www.techtalkthai.com/intel-movidius-myriad-x-vision-processing-unit-vpu-is-announced/

กูเกิลโชว์งานวิจัย ใช้อัลกอริทึมลบลายน้ำของภาพถ่ายได้แบบง่ายๆ

ทีมวิจัยของ Google Research เผยแพร่งานวิจัยที่ใช้อัลกอริทึมลบลายน้ำออกจากภาพถ่ายได้อย่างง่ายๆ

ทีมวิจัยระบุว่ารูปแบบของลายน้ำ (watermark) ในปัจจุบันที่วางทับไปบนภาพถ่าย อาจเป็นเรื่องยากสำหรับมนุษย์ในการลบมันออก แต่จริงๆ แล้วลายน้ำกลับมีแพทเทิร์นที่ค่อนข้างตายตัว เช่น มีความโปร่งแสง (opacity) เท่ากันตลอด และถ้าเรามีภาพถ่ายหลายๆ ภาพที่มีลายน้ำรูปเดียวกัน เราสามารถสร้างภาพสมบูรณ์ของลายน้ำขึ้นมาใหม่ เพื่อให้รู้ขอบเขตในการลบลายน้ำออกได้

No Description

อัลกอริทึมของกูเกิล นำภาพถ่ายจำนวนมากเป็นหลักหลายร้อยรูป ที่มีลายน้ำเดียวกันมาประมวลผลแบบ noise-signal (ลายน้ำเป็น signal และภาพถ่ายเป็น noise) เพื่อสร้างภาพลายน้ำแบบหยาบๆ (rough estimation) ขึ้นมาใหม่

จากนั้นเมื่อได้ภาพลายน้ำแบบหยาบๆ มาแล้ว กูเกิลก็ใช้เทคนิคประมวลผลภาพที่เรียกว่า multi-image matte เพื่อแยกชั้นของลายน้ำออกมาจากภาพเดิม แล้วซ่อมภาพฉากหลังกลับคืน ผลที่ได้ก็ออกมาค่อนข้างน่าพอใจ

No Description

งานวิจัยของกูเกิลชิ้นนี้ ไม่ได้ต้องการทำลายระบบลายน้ำในวงการภาพถ่าย แต่กระตุ้นให้ใช้ระบบลายน้ำที่แก้ไขย้อนกลับได้ยากกว่าเดิม โดยบิดลายน้ำให้แตกต่างกันไปเล็กน้อยเวลาวางในแต่ละภาพ ซึ่งอัลกอริทึมของกูเกิลยังไม่สามารถลบลายน้ำแบบนี้ได้ 100%

ตัวอย่างลายน้ำปกติที่อัลกอริทึมลบได้ (ซ้าย) และลายน้ำที่บิดแบบสุ่ม ซึ่งลบได้ไม่หมด (ขวา)

No Description

ที่มา – Google Research Blog

วิดีโอสาธิตการทำงานของอัลกอริทึม

from:https://www.blognone.com/node/94824

Facebook เข้าซื้อ Fayteq สตาร์ทอัพ computer vision จากเยอรมนี

Facebook เข้าซื้อบริษัท Fayteq ซึ่งเป็นสตาร์ทอัพด้าน computer vision จากเยอรมนี มีผลงานในการพัฒนาปลั๊กอินเพื่อลบวัตถุออกจากวิดีโอสำหรับโปรแกรมอย่าง After Effects

เทคโนโลยีของ Fayteq นั้นสามารถใช้เพื่อเพิ่มฟีเจอร์ให้กับ Facebook Live หรือ Stories เพื่อเสริมความแข็งแกร่งให้บริการได้ หรือจะพัฒนาปลั๊กอินสำหรับ After Effects ต่อไปเพื่อเป็นเครื่องมือสร้างเอฟเฟค AR สำหรับนักพัฒนาก็ได้

สำหรับรายละเอียดในการเข้าซื้อของ Facebook นั้นยังไม่ได้เผยออกมามากนัก แต่ทางบริษัทก็ได้ยืนยันการเข้าซื้อบริษัทอย่างเป็นทางการแล้ว

ที่มา – Engadget

from:https://www.blognone.com/node/94695