Apple、300億パラメータのマルチモーダル大規模言語モデル「MM1」

 Appleは14日、マルチモーダル大規模言語モデル「MM1」に関する論文を公開した。研究を通じて30億、70億、300億パラメータのLLMと、MoE(Mixture-of-Experts)を用いた30億、70億パラメータのモデルによるモデルファミリーを構築しており、既存の同等サイズのモデルを上回る性能を発揮できたとしている。

Powered by WPeMatico