ジャンナのテーマ ライセンスが検証されていません. テーマ オプション ページに移動してライセンスを検証します. ドメイン名ごとに XNUMX つのライセンスが必要です.

DeepSeek のローカル体験: ラップトップでの成功と課題

AI モデルをオフラインで実行するのが理想的ですが、通常は強力で高価なハードウェアが必要です。ただし、常にそうであるとは限りません。DeepSeek R1 モデルは、機能が制限されたデバイスに実用的なオプションを提供し、インストールも非常に簡単です。

AI チャットボットをローカルで実行するとはどういう意味ですか?

ChatGPT のようなオンライン AI チャットボットを使用する場合、リクエストは OpenAI のサーバー上で処理されるため、デバイスが重い処理を実行することはありません。 AI チャットボットと通信するには常時インターネット接続が必要であり、データを完全に制御することはできません。 ChatGPT、Gemini、Claude などの AI チャットボットを動かす大規模な言語モデルは、大容量のビデオ メモリ (VRAM) を備えた GPU に依存しているため、動作要件が非常に高くなります。このため、ほとんどの AI モデルはクラウドベースになっています。

ローカル AI チャットボットは、他のソフトウェアと同様に、デバイスに直接インストールされます。つまり、AI チャットボットを使用するために常時インターネット接続が必要なく、いつでもリクエストを送信できます。 DeepSeek-R1 は、多くのデバイスにインストールできる大規模なネイティブ言語モデルです。精製された 7B (XNUMX 億パラメータ) モデルは、ミッドレンジのデバイスで適切に機能する小型で最適化されたバージョンであり、クラウド処理なしで AI 応答を生成できます。簡単に言えば、これは応答が速くなり、プライバシーが向上し、データを完全に制御できることを意味します。

ノートパソコンにDeepSeek-R1をインストールする方法

DeepSeek-R1をデバイス上で実行するのは比較的簡単ですが、WebベースのAIチャットボットの低性能バージョンを使用していることに注意してください。 ディープシーク。 DeepSeekのAIチャットボットは約671億のパラメータを使用しており、 ディープシーク-R1 約7億のパラメータについて。

次の手順に従って、DeepSeek-R1 をコンピューターにダウンロードして使用できます。

ターミナルウィンドウ内で実行されているDeepSeek-R1

  1. انن<XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxXNUMX>لل<XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxAXNUMX> オラマのウェブサイト 最新バージョンをダウンロードしてください。次に、他のアプリと同じようにデバイスにインストールします。
  2. ターミナルを開き、次のコマンドを入力します。
ollama run deepseek-r1:7b

これにより、DeepSeek-R1 7B モデルがコンピューターにダウンロードされ、ターミナルにクエリを入力して応答を受け取ることができるようになります。パフォーマンスの問題やクラッシュが発生した場合は、以下のモデルを置き換えて、より負荷の少ないモデルを試してください。 7b b 1.5b 上記の順番になります。

このモデルはターミナルで問題なく動作しますが、ChatGPTのような適切なテキストフォーマットを備えたフル機能のユーザーインターフェースが必要な場合は、次のようなアプリを使用することもできます。 チャットボックス.

DeepSeekをローカルで実行するのは完璧ではないが、機能する

前述のように、DeepSeek のオンライン チャットボットはより強力なモデルを使用し、すべてをクラウドで処理するため、応答はそれほど良く (または速く) ありません。しかし、小型モデルのパフォーマンスがどうなっているか見てみましょう。

数学の問題を解く

70 億因子モデルのパフォーマンスをテストするために、方程式を与えてその積分を解くように指示しました。特に基本モデルでは数学的に苦労することが多いため、そのパフォーマンスには非常に満足しました。この実験は、大規模言語モデルが微積分問題を処理する能力を実証しており、物理学や工学などの分野で大きな期待が寄せられています。

DeekSeek-R1 方程式の積分を解く

これは最も複雑な問題ではありませんが、大規模な言語モデルをローカルで実行することが非常に便利になるのはまさにこのためです。すべてをクラウドに頼るのではなく、簡単なクエリを即座に処理できるすぐに利用できるツールを用意することが重要です。このアプローチにより、応答速度が向上し、インターネット接続への依存が軽減されます。これは、インタラクティブ AI アプリケーションにとって非常に重要です。

コードのエラーを修正する

DeepSeek-R1 モデルをローカルで実行する最も効果的な用途の XNUMX つは、AI プロジェクトを支援することです。これは非常に便利です。特に、インターネットにアクセスできない飛行機の中でコードを書いているときや、デバッグに大きな言語モデルに大きく依存しているときには便利です。その有効性をテストするために、単純な意図的なエラーを追加したこのコードを提供しました。

コードは簡単に処理されましたが、1GB の統合メモリしか搭載していない MacBook Air M8 で実行していたことに注意してください。 (統合メモリは、CPU、GPU、およびシステムオンチップの他の部分間で共有されるメモリです。)

DeepSeek-R1はPythonコードの一部を修正しました

IDE を開き、複数のブラウザ タブを開いた状態で、MacBook のパフォーマンスに大きな影響が出ました。応答性を回復するには、すべてを強制的に閉じる必要がありました。 16GB の RAM またはミッドレンジの GPU をお持ちの場合は、これらの問題が発生する可能性は低くなります。

より大きなコードベースでもテストしましたが、ループに陥ってしまうため、より強力なモデルの完全な代替としてこれに依存することはお勧めしません。ただし、小さなコード スニペットをすばやく作成するには依然として便利です。

パズルを解く

また、このモデルがパズルや論理的推論をどの程度うまく処理できるか興味があったので、次のような問題でテストしてみました。 モンティ・ホールは簡単に解決できましたが、別の理由で DeepSeek の真価を認めるようになりました。

DeepSeek-R1 はモンティ・ホール問題を解く

図に示されているように、答えを単に提示するだけでなく、思考プロセス全体を説明して、解決策に至った経緯を説明します。これは、トレーニング データから記憶された答えを単に思い出すのではなく、問題を徹底的に考えていることを示しています。これは、DeepSeek が人間の思考を模倣する方法で情報を処理し、解決策を導き出すことができることを示しており、これは AI モデルの開発における重要なステップです。

検索

大規模な言語モデルをローカルで実行する場合の最大の欠点の 1 つは、知識の不連続性です。彼はインターネットにアクセスできないため、最近の出来事に関する信頼できる情報を見つけるのは難しい場合があります。この制限は私のテストでも明らかでしたが、初代 iPhone の簡単な概要を尋ねたときにはさらに悪化し、不正確で意図せずおかしな応答が生成されました。

DeepSeek-R1が初代iPhoneに関するテキストを生成

当然ながら、最初の iPhone は iOS 5 とともに発売されたわけではなく、存在しない「iPhone 3」もまだ登場していない。彼はほとんどすべてを間違えた。他のいくつかの基本的な質問でテストしてみましたが、不正確さは変わりませんでした。

بعد DeepSeek データ侵害データが侵害されることを心配せずにこのモデルをローカルで実行できることがわかって安心しました。完璧ではありませんが、オフライン AI アシスタントがあることは大きな利点です。このようなモデルがスマートフォンなどの消費者向けデバイスにもっと搭載されることを期待しています。 Apple Intelligenceに対する失望.

トップボタンに移動