DeepSeek เป็นโมเดลปัญญาประดิษฐ์ขนาดใหญ่ที่ออกแบบมาเพื่อช่วยในการประมวลผลภาษาและข้อมูลในรูปแบบต่าง ๆ โดย Microsoft ได้พัฒนาเวอร์ชันที่ปรับแต่งให้เหมาะสมกับ NPU (Neural Processing Unit) เพื่อให้สามารถรันได้บน Copilot+ PCs ซึ่งเป็นคอมพิวเตอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการทำงานของ AI อย่างเต็มประสิทธิภาพ โดยใช้ชิป Qualcomm Snapdragon X
ความสามารถของ DeepSeek บน Copilot+ PCs
Microsoft ได้พัฒนาและเปิดให้ใช้งานโมเดล DeepSeek R1 ขนาด 1.5B, 7B และ 14B ผ่านแพลตฟอร์ม Azure AI Foundry ทำให้สามารถรันโมเดลเหล่านี้ได้โดยตรงบน Copilot+ PCs ซึ่งมีข้อดีหลายประการ ได้แก่:
• ลดภาระของ CPU และ GPU: เนื่องจากโมเดลเหล่านี้ทำงานบน NPU จึงช่วยให้ CPU และ GPU สามารถใช้ประมวลผลงานอื่น ๆ ได้อย่างเต็มที่
• ประหยัดพลังงานและลดความร้อน: การใช้ NPU ในการประมวลผล AI ช่วยให้การใช้พลังงานมีประสิทธิภาพมากขึ้น ส่งผลให้แบตเตอรี่ใช้งานได้นานขึ้น และลดความร้อนของเครื่อง
• รองรับการทำงานที่ซับซ้อน: ด้วยขนาดโมเดลที่ใหญ่ขึ้น นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ที่ซับซ้อนมากขึ้น เช่น การวิเคราะห์ข้อมูลอัตโนมัติ การสร้างคอนเทนต์ หรือการพัฒนา AI Assistants
ประสิทธิภาพและการปรับแต่งโมเดล
Microsoft ใช้เครื่องมือภายในที่เรียกว่า Aqua สำหรับการ Quantization อัตโนมัติ ทำให้โมเดล DeepSeek สามารถรันด้วย int4 weights อย่างไรก็ตาม ความเร็วในการประมวลผลยังอยู่ในระดับต่ำ โดย:
• โมเดล 14B มีความเร็วประมาณ 8 โทเค็นต่อวินาที
• โมเดล 1.5B ทำงานได้เร็วขึ้นที่ 40 โทเค็นต่อวินาที
Microsoft กำลังดำเนินการปรับปรุงเพิ่มเติมเพื่อเพิ่มความเร็วและประสิทธิภาพของโมเดลเหล่านี้ให้ดียิ่งขึ้น
การใช้งาน DeepSeek บน Copilot+ PCs สำหรับธุรกิจและองค์กร
DeepSeek และ Copilot+ PCs สามารถช่วยให้ธุรกิจและองค์กรสามารถพัฒนาระบบ AI ที่ช่วยเพิ่มประสิทธิภาพการทำงานในหลาย ๆ ด้าน เช่น:
• งานเอกสารและการจัดการข้อมูล: ช่วยวิเคราะห์และสรุปเอกสารจำนวนมากได้อย่างรวดเร็ว
• การสนับสนุนลูกค้าอัตโนมัติ: สามารถพัฒนาแชทบอทหรือระบบช่วยเหลือที่แม่นยำขึ้น
• การสร้างเนื้อหา: ใช้ AI เพื่อสร้างบทความ รีวิว หรือคอนเทนต์คุณภาพสูง
• การวิเคราะห์ข้อมูล: ใช้ AI ในการประมวลผลข้อมูลขนาดใหญ่เพื่อช่วยตัดสินใจทางธุรกิจ
DeepSeek R1 พร้อมใช้งานบน Azure AI Foundry และ GitHub
DeepSeek R1 ได้รับการบรรจุเข้าสู่ Azure AI Foundry และ GitHub เป็นส่วนหนึ่งของพอร์ตโฟลิโอโมเดล AI มากกว่า 1,800 โมเดล ที่ Microsoft นำเสนอ นักพัฒนาสามารถเข้าถึง DeepSeek R1 บนแพลตฟอร์มที่เชื่อถือได้ พร้อมความสามารถในการขยายตัวและมาตรฐานความปลอดภัยที่เข้มงวด โดย Azure AI Foundry ช่วยให้สามารถ:
• เร่งกระบวนการพัฒนา AI: ด้วยเครื่องมือเปรียบเทียบโมเดล และการประเมินผลอัตโนมัติ
• พัฒนา AI อย่างปลอดภัย: ผ่านการตรวจสอบด้านความปลอดภัย การควบคุมเนื้อหา และการประเมินความเสี่ยงของโมเดล
• ใช้ DeepSeek R1 ได้อย่างง่ายดาย: ผ่านเซิร์ฟเวอร์แบบไร้โครงสร้างที่สามารถนำไปใช้ผ่าน API ได้ทันที
วิธีการติดตั้งและใช้งาน DeepSeek บน Copilot+ PCs
นักพัฒนาสามารถติดตั้งและใช้งานโมเดล DeepSeek ได้ผ่าน AI Toolkit บน VS Code โดยโมเดลเหล่านี้ได้รับการปรับแต่งให้ใช้ฟอร์แมต ONNX QDQ และสามารถดาวน์โหลดได้โดยตรงจาก Azure AI Foundry
อุปกรณ์ที่รองรับการใช้งาน DeepSeek และ Copilot+ PCs
สำหรับผู้ที่ต้องการใช้งาน DeepSeek บน Copilot+ PCs ได้อย่างเต็มประสิทธิภาพ สามารถเลือกใช้งานโน้ตบุ๊กและพีซีที่รองรับ เช่น:
• Microsoft Surface Laptop 6 (ใช้ชิป Snapdragon X Elite พร้อม NPU)
• Samsung Galaxy Book4 Edge (รองรับ AI acceleration)
• ASUS Vivobook S 15 AI PC (ชิป Snapdragon X Plus พร้อม NPU)
• Lenovo ThinkPad T14s Gen 5 AI PC (รองรับการประมวลผล AI)
• Dell XPS 13 AI Edition (รองรับ ONNX QDQ format)
อนาคต Microsoft วางแผนให้ Copilot+ PCs ที่ใช้โปรเซสเซอร์ Intel Core Ultra 200V และ AMD Ryzen สามารถใช้งาน DeepSeek ได้ ทำให้การพัฒนาแอปพลิเคชัน AI มีความยืดหยุ่นมากขึ้น
สรุป
การนำ DeepSeek มาสู่ Copilot+ PCs ถือเป็นก้าวสำคัญที่ช่วยให้ AI มีบทบาทสำคัญในการทำงานมากขึ้น โดยเฉพาะสำหรับนักพัฒนาและองค์กรที่ต้องการนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพการทำงาน และที่สำคัญคือ การใช้ NPU ช่วยให้สามารถทำงาน AI ได้โดยไม่กระทบกับประสิทธิภาพโดยรวมของเครื่อง
สำหรับธุรกิจที่ต้องการปรับตัวให้ทันกับยุค AI สามารถติดต่อ QuickServ เพื่อขอคำปรึกษาเกี่ยวกับการนำ Copilot+ PCs และโซลูชัน AI มาประยุกต์ใช้กับองค์กรของคุณได้แล้ววันนี้
Comments
0 comments
Please sign in to leave a comment.