DUICUO

Ollamaの導入とテスト

I. オラムの紹介

Ollama は、大規模言語モデル (LLM) をローカル マシン上で簡単に展開および実行できるように設計されたオープン ソース ツールです。

Ollamは、ユーザーが複雑なモデルを簡単に作成、実行、管理できる、シンプルで効率的なインターフェースを提供します。さらに、Ollamには豊富な構築済みモデルライブラリが付属しており、様々なアプリケーションへのシームレスな統合が可能で、開発効率とユーザーエクスペリエンスを大幅に向上させます。

II. オラムの設置

2.1 公式サイト

オラマ公式サイト:https://ollama.com/

このウェブサイトは安全にアクセスできます。グレートファイアウォールによってブロックされていません。結果は次のとおりです。

2.2 Ollama ダウンロード

【ダウンロード】をクリックすると、以下のようにダウンロードページにリダイレクトされます。

システムに応じてダウンロード オプションを選択します。インストールの例として Windows を使用します。

「Windows 用にダウンロード」をクリックし、ダウンロードが完了するまで待ちます。

2.3 Ollamaのインストール

2.3.1 【OllamaSetup.exe】をダブルクリックしてインストールを開始します。

2.3.2 【インストール】をクリックしてインストールを開始します。

インストールが完了するまでお待ちください。現在のOllamのバージョンは0.3.6です。

2.3.3 注意事項

インストール後にプロンプ​​トは表示されません。スタート メニューで Ollama を見つける必要があります。

環境変数が正常に追加されない場合は手動で追加する必要があることに注意してください。そうしないと、コマンドラインから ollama を起動できなくなります。

2.4 Ollamaクイックアプリケーション

2.4.1 コマンドラインウィンドウを開く

WinS+R を押して「cmd」と入力し、「OK」をクリックしてコマンド プロンプト ウィンドウを開きます。

2.4.2 Ollamによる大規模モデルの設定

大規模モデルの現在のステータスを確認するには、「ollama list」と入力してください。インストール初期画面は以下の画像のようになります。

2.4.3 事前学習済みモデルのダウンロード

(1) 「モデル」をクリックすると、Ollamがサポートする事前トレーニング済みモデルのページに移動します。

(2)[yi]モデルのダウンロードを例に挙げると、検索ボックスに[yi]と入力し、クリックして[yi]モデルの詳細ページに入ります。

Yiモデルの紹介:

Yiは、英語と中国語をサポートする3兆タグの高品質コーパスで学習された大規模言語モデルシリーズです。Yiには6b、9b、34bの事前学習済みモデルが用意されており、それぞれに異なるモデルがあります。「b」は10億パラメータを意味し、6bは60億パラメータを意味します。

(3) コマンドラインウィンドウに ollama run yi:6b-chat と入力します。このコマンドは本来、yiモデルを実行するためのものですが、実行前にyiモデルが存在するかどうかを確認します。存在しない場合は、まずyiモデルをダウンロードします。存在する場合は、yiモデルを実行します。

正しいダウンロードコマンドは次のようになります: ollama pull yi:6b-chat

ダウンロードした Yi モデルのスクリーンショット:

今のところ、Ollamは中国ではまだブロックされていないので、20MB/秒を超える比較的高速な速度でオンラインでダウンロードできます。しかし、将来的にブロックされる可能性もあります。

(4) ダウンロードが完了すると、易モデルが直接起動します。易モデルと対話するための質問を直接入力できます。

2.4.4 易モデルとの対話

ご覧のとおり、最初の質問への回答は論理的で根拠がしっかりしていました。しかし、2番目の論理的な質問への回答では、6bのモデルは不正確であり、問​​題に対する理解が不足していることが示されました。

Ⅲ. Ollam コマンドの概要

誰でも簡単に Ollama を操作できるように、よく使用される Ollama コマンドのリストを以下に示します。

 ollama serve:启动Ollama 服务,是后续操作的基础。 ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。 ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。 ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。 ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。 ollama push:将模型推送到注册表,便于共享模型。 ollama list:列出本地已有的模型,方便管理和选择。 ollama cp:复制模型,可用于备份或创建模型副本。 ollama rm:删除模型,释放存储空间。 ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。