MetaがAIのLlama 3を発表

 コメント2件
GitHub - meta-llama/llama3: The official Meta Llama 3 GitHub site
The official Meta Llama 3 GitHub site. Contribute to meta-llama/llama3 development by creating an ac...
  • 1:以下、名無しがお送りします

    Meta Llama(ラマ) 3ってどう?

  • 7:以下、名無しがお送りします

    大規模言語モデルの力を解放するらしいよ 個人や企業が実験したりアイデアを拡張できるようになるんだって

  • 9:以下、名無しがお送りします

    >>7 8Bから70Bパラメータまでのモデルが含まれてるみたいだね

  • 13:以下、名無しがお送りします

    >>9 モデルの重みとトークナイザーをダウンロードするにはMeta Llamaのウェブサイトにアクセスしてライセンスに同意する必要があるらしい

  • 21:以下、名無しがお送りします

    >>13 リクエストが承認されるとメールで署名付きURLが送られてくるんだって そのURLを使ってdownload.shスクリプトを実行するみたい

  • 29:以下、名無しがお送りします

    >>21 事前にwgetとmd5sumをインストールしておく必要があるから気をつけないとな

  • 38:以下、名無しがお送りします

    >>29 ダウンロードリンクの有効期限は24時間だから 403エラーが出たら再度リクエストしないといけないみたいだ

  • 48:以下、名無しがお送りします

    Hugging Faceからもダウンロードできるみたいだけど 手順はちょっと複雑そうだな

  • 51:以下、名無しがお送りします

    >>48 そうだね でもtransformersを使えば簡単にパイプラインでモデルをダウンロードできるみたいだよ

  • 52:以下、名無しがお送りします

    >>51 Quick Startの手順に従えば ローカルですぐに推論を実行できるみたい

  • 54:以下、名無しがお送りします

    >>52 condaでPyTorchとCUDAの環境を用意して リポジトリをクローンしてダウンロードするんだって

  • 63:以下、名無しがお送りします

    >>54 pip install -e . でインストールして download.shスクリプトを実行するみたい

  • 71:以下、名無しがお送りします

    >>63 モデルをダウンロードしたらexample_chat_completion.pyを使って推論できるらしいよ

  • 79:以下、名無しがお送りします

    >>71 torchrunコマンドのオプションでモデルのパスとトークナイザーのパス、バッチサイズとかを指定するみたいだね

  • 80:以下、名無しがお送りします

    モデルサイズによってmodel-parallel(MP)値が違うから注意が必要だな

  • 90:以下、名無しがお送りします

    >>80 8Bは1、70Bは8みたいだね

  • 93:以下、名無しがお送りします

    >>90 シーケンス長は最大8192トークンまでサポートしてるけど max_seq_lenとmax_batch_sizeでキャッシュが事前に割り当てられるから ハードウェアに合わせて設定しないとな

  • 99:以下、名無しがお送りします

    Pretrainedモデルはチャットや質問応答用にファインチューニングされてないみたいだね

  • 105:以下、名無しがお送りします

    >>99 プロンプトを工夫して 期待する答えがプロンプトの自然な続きになるようにする必要があるみたい

  • 112:以下、名無しがお送りします

    >>105 example_text_completion.pyにサンプルがあるらしいよ

  • 119:以下、名無しがお送りします

    Instruction-tunedモデルはダイアログアプリ用にトレーニングされてるんだって

  • 126:以下、名無しがお送りします

    >>119 期待される機能とパフォーマンスを得るには ChatFormatで定義された特定のフォーマットに従う必要があるみたい

  • 128:以下、名無しがお送りします

    >>126 プロンプトは<|begin_of_text|>トークンから始まって その後に1つ以上のメッセージが続くんだって

  • 138:以下、名無しがお送りします

    >>128 各メッセージは<|start_header_id|>タグ system, userまたはassistantのロール <|end_header_id|>タグで始まるらしい

  • 143:以下、名無しがお送りします

    >>138 2つの改行の後にメッセージの内容が続いて 各メッセージの終わりは<|eot_id|>トークンでマークされるみたい

  • 151:以下、名無しがお送りします

    安全でない入力や出力をフィルタリングするための追加の分類器を導入することもできるらしいよ

  • 153:以下、名無しがお送りします

    >>151 llama-recipesリポジトリに 推論コードの入力と出力にセーフティチェッカーを追加する例があるみたいだね

  • 163:以下、名無しがお送りします

    Llama 3は新しい技術だから 使用に伴うリスクがあるんだって

  • 169:以下、名無しがお送りします

    >>163 これまでのテストではすべてのシナリオをカバーできてないらしいな

  • 179:以下、名無しがお送りします

    >>169 開発者がこれらのリスクに対処できるように Responsible Use Guideが作成されたみたいだよ

  • 182:以下、名無しがお送りします

    何か問題があったらどこに報告すればいいんだろう?

  • 191:以下、名無しがお送りします

    >>182 モデルの問題はGitHubのissueページに報告するみたいだね

  • 198:以下、名無しがお送りします

    >>191 モデルが生成したリスクのあるコンテンツはdevelopers.facebook.comに報告するんだって

  • 208:以下、名無しがお送りします

    >>198 バグやセキュリティの問題はfacebook.com/whitehat/infoに報告するらしい

  • 213:以下、名無しがお送りします

    Llama 3 使ってみたいけどちょっと敷居が高そうだな

  • 220:以下、名無しがお送りします

    >>213 でも大規模言語モデルを手軽に試せるのは魅力的だよね

  • 223:以下、名無しがお送りします

    責任を持って使えば いろんなアイデアを実現できそうだ

  • 226:以下、名無しがお送りします

    >>223 オープンソース化されてるのも嬉しいよね コミュニティで発展させていけそう

  • 232:以下、名無しがお送りします

    ドキュメントもしっかりしてるし サポートも手厚そうだしね

  • 240:以下、名無しがお送りします

    言語モデルの民主化が進むといいな Llama 3に期待だね

コメント(2件)

  • 1
    1

    Llama3ついに来たか

  • 2

    パラメータ数でそんなに違うんだ