Sparticle社、日本語LLM開発を加速。革新的なAI技術で日本語処理能力が飛躍的に向上させる

先日、米国の投資ファンドや他の機関投資家から約5億円(350万ドル)の資金を確保した、日本の人工知能(AI)スタートアップ、Sparticle株式会社(本社、中央区日本橋)は、大規模な日本語モデル(LLM)の開発を強化に着手した。

Sparticle社は、2022年11月、OpenAIがインタラクティブな生成型AI「ChatGPT」の潜在能力を素早く認識し、生成型AIの事業拡大を図りました。今年の6月から、彼らはGPT技術を活用して、企業や個人の情報から学習するカスタムAIエージェントの作成を可能にし、「GPTBase」というサービスを提供しています。

Sparticle社は、Amazon Web Services(AWS)ジャパンによるLLM開発支援プログラムパートナーとして選出され、今回のLLM開発は、その一環であるとのことだ。

Sparticleが開発した大規模言語モデル(Llama2-13B-Felo LLM)は、米国のMETAが開発したLlama2に基づいている。Llama-2は3つの異なるサイズで提供されており、それぞれ7B、13B、70Bのパラメータを持っているが、今回、Sparticle社は、この内、日本語および英語データで事前学習を行なった7億パラメータ(7b)及び、13億パラメータ(13b)のベースモデルで、これらのモデルは、業務特化すれば、それぞれ7BはGPT2.0相当、13BはGPT3.5相当となる。また、7bモデルは、オープンソースとして無料公開される。この新しいモデルは、日本語に特化した自然な会話や文章生成の能力を高めることを目指しており、7bモデルは、入出力の長さとして8,192トークンに対応しており、日本語の文章として約4,096文字を一度に処理することができるという。

Sparticle社は、今回のLlama2-13B-Felo LLM開発での実証データとして、測定指標である日本語ベンチマークスコアを公開しているが、Rinna株式会株とStability AI Japan株式会社より高い点数をもらい、株式会社ELYZAや株式会社Preferred Networksの日本語向けLLMと比べて、20ポイントほど上のスコアを獲得できている。

Sparticle社は、Llama2-13B-Felo LLMの7Bおよび13Bのバージョンについて、11月中旬から外部検証を可能にする予定で、2024年1月に両バージョン共、リリースを予定している。これにより、外部の研究者や開発者がモデルの性能や応用の可能性を検証できるようになる見込みだ。Sparticle社はこの試験を通じて、モデルの精度や実用性を向上させることに注力している。

Sparticle社は高精度の日本語大規模言語モデルでGPTBaseと組み合わせることで、GPTBaseと組み合わせることで、企業が独自に展開し、データのセキュリティを保護することができるナレッジベースのChatGPTロボットを作るのに役立つ。 企業の既存の知識に基づいて、高精度の知識ベースとなる企業内部展開が実現。2023年11月まで、結心会(一般社団法人 保険健全化推進機構)とARK CONSULTING株式会社と株式会社ITSO(UIPathの日本におけるカスタマーサポートパートナーであり)など既にGPTBaseを導入している。

Sparticle社は、日本語LLMの開発において他の関連企業との協力も模索している。彼らの開発チームは、日本語の特性やニュアンスを正確に捉えるための検証作業を継続して行っており、その過程で外部の専門家や研究者からのフィードバックも積極的に取り入れている。

グローバルなIT業界では、生成型AIはモバイルインターネットから約10年後に登場した革命的な変革を意味します。それは人々の生活を根本的に変える可能性を秘めている。

Sparticle社、現在この日本語理解モデルの開発にあたり、Sparticle社は東京大学橋田研究室のスタートアップチームである株式会社白山人工知能の協力を得た。今後も、日本語LLMの開発をさらに推進し、AI技術の進化と日本語処理能力の向上に貢献していく姿勢を示している。彼らの取り組みが、日本のAI産業の発展に大きく寄与することが期待される。

アバター

投稿者 shuirong

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です