บทเรียนที่ควรรู้
1. การเปิดตัว Llama 3.1 โมเดลปัญญาประดิษฐ์
- Meta ได้เปิดตัว Llama 3.1 โมเดลปัญญาประดิษฐ์ และบริการต่างๆ ที่ครบถ้วนบนโลกคลาวด์บรรดาค่ายใหญ่ ๆ ต่างมีการเปิดบริการพร้อมกัน
- Google Cloud เปิดให้ใช้งานโมเดล 405B และยังไม่ประกาศราคา ในขณะที่ AWS ประกาศราคาเฉพาะรุ่น 70B และ 8B
2. ความสำคัญของสัญญาอนุญาตของ Llama 3.1
- Llama 3.1 มีสัญญาอนุญาตที่ให้ผู้ใช้เอาท์พุตของโมเดลไปใช้งานอื่นได้ ทำให้องค์กรสามารถอัปติในการใช้งานและการนำไปฝึกโมเดลต่างๆได้
ปัญหาและวิธีการแก้ไข
1. ปัญหาราคาต่าง ๆ ของ Llama 3.1 ในคลาวด์ต่าง ๆ
- วิธีการแก้ไข: การเปรียบเทียบราคาและคุณสมบัตินั้นสำคัญเพื่อเลือกใช้บริการที่เหมาะสมที่สุดสำหรับธุรกิจ
2. ปัญหาในการใช้งานโมเดลในการฝึกโมเดลอื่น
- วิธีการแก้ไข: การเลือกใช้โมเดลที่มีสัญญาอนุญาตในการใช้เอาท์พุตไปใช้ได้อย่างสะดวกและอิสระ
คำถามที่ถามบ่อย
- Llama 3.1 มีความสำคัญอย่างไรในโลกปัจจุบัน?
- วิธีการเปรียบเทียบราคาของ Llama 3.1 ในคลาวด์ต่าง ๆ คืออะไร?
- สิ่งที่ทำให้สัญญาอนุญาตของ Llama 3.1 น่าสนใจอย่างไร?
เว็บไซต์ที่เกี่ยวข้อง
คำค้นหาที่เกี่ยวข้อง
- Llama 3.1 โมเดลปัญญาประดิษฐ์
- ราคา Llama 3.1 ในคลาวด์
- สัญญาอนุญาตของ Llama 3.1
- เทคโนโลยีการ quantize ของบริษัท
- การใช้เอาท์พุตของโมเดลปัญญาประดิษฐ์ในการฝึกโมเดลอื่น
หลังจากเมื่อคืนที่ผ่านมา Meta เปิดตัว Llama 3.1 โมเดลปัญญาประดิษฐ์ บรรดาคลาวด์รายเล็กและรายใหญ่ก็ประกาศเปิดบริการ Llama 3.1 โดยพร้อมเพรียงกัน โดยบริการที่ครบถ้วนที่สุดคือ Microsoft Azure เปิดให้บริการพร้อมกับประกาศราคาออกมาพร้อมกันทั้งสามขนาด Google Cloud นั้นเปิดให้ใช้งานโมเดล 405B แล้วแต่ยังไม่ประกาศราคา ขณะที่ AWS นั้นประกาศราคาเฉพาะรุ่น 70B และ 8B โดยรุ่น 405B ต้องเปิดเคสขอใช้งาน
คลาวด์เฉพาะทางค่ายต่างๆ ก็ประกาศราคาและเปิดให้บริการออกมาเช่นกัน เช่น Together.AI ประกาศราคาต่ำสุดแต่เป็นรุ่น Turbo ที่ถูก quantized มาแล้วอ แม้บริษัทจะระบุว่าเทคโนโลยีการ quantize ของบริษัทนั้นมีความสามารถใกล้เคียงโมเดลเต็ม ขณะที่ Groq ผู้ให้บริการเฉพาะทางก็เปิดให้บริการรุ่น 70B และ 8B แต่ยังไม่ประกาศราคาออกมา อย่างไรก็ดีหากเทียบราคา Llama 3 ก่อนหน้านี้ก็จะพบว่าราคาถูกกว่าเจ้าอื่นๆ มากอยู่แล้ว
โครงการรัน LLM บนเครื่องส่วนตัวอย่าง Ollama ก็รองรับ Llama 3.1 เป็นที่เรียบร้อยแล้ว อย่างไรก็ดี รุ่น 405B นั้นมีเฉพาะแบบ quantized 4 bit เท่านั้น ไม่มีแบบ FP16 ทางด้าน NVIDIA ก็ประกาศรองรับ Llama 3.1 บน NVIDIA NIM โดยโชว์ว่ามีบริการ NVIDIA NeMo Retriever เต็มรูปแบบ ทำให้องค์กรสามารถสร้างแอปพลิเคชั่นแบบ retrieval-augmented generation (RAG) ได้ในองค์กรอย่างสมบูรณ์
ความพิเศษของ Llama 3.1 คือสัญญาอนุญาตเปลี่ยนไลเซนส์โดยอนุญาตให้ใช้เอาท์พุตของโมเดลไปใช้งานอื่นๆ ได้ ต่างกับโมเดลอื่นๆ เช่น OpenAI ห้ามนำเอาท์พุตไปใช้ฝึกโมเดลอื่นๆ ทำให้องค์กรสามารถออปติไมซ์การทำงานเพิ่มเติม เช่น สร้างชุดข้อมูลจาก Llama 3.1 405B แต่นำไปฝึกกับโมเดล LLM ที่ขนาดเล็กกว่า
ที่มา – NVIDIA, AWS, Google Cloud Blog, Azure Blog
Provider | 405B | 70B | 8B |
---|---|---|---|
Azure | 5.33USD / 16USD | 2.68USD / 3.54USD | 0.3USD / 0.61USD |
AWS Bedrock | N/A | 2.65USD / 3.5USD | 0.3USD / 0.6USD |
Databricks | 10USD / 30USD | 1USD / 3USD | N/A |
GCP | N/A | N/A | N/A |
Together.AI (quantized) | 5USD / 5USD | 0.88USD / 0.88USD | 0.18USD / 0.18USD |
Groq (Llama 3) | N/A | 0.59USD / 0.79USD | 0.05USD / 0.08 USD |
ราคาของ Llama 3.1 ขนาดต่างๆ โดยคิดราคาต่อ 1 ล้านโทเค็น จากผู้ให้บริการคลาวด์ Google Cloud นั้นยังไม่เปิดเผยราคา ขณะที่ Together.AI นั้นเป็นโมเดลแบบย่อ และ Groq ก็ยังไม่เปิดเผยราคาเช่นกัน
Source link
https://www.blognone.com/node/141059