ローカル環境で動くAIのデモ

本当にローカルで動いているの? 外部通信はしてないの? そんな質問をいただくことが多くなってきました。大事な社内データをあげるのは、やっぱり抵抗がありますよね。

そこで、外部通信をモニタしながら、ローカルに構築したdifyとollama(ローカルLLM)でチャットの実演をしています。LANケーブルを抜いてしまえば一目瞭然なのですが、遠く離れたお客様にもご理解いただけるよう、動画にしてみました。