やってみた

業界動向/新技術調査

ローカルPCでLLMを動かす(llama-cpp-python)

llama-cpp-pythonを使ってLLaMA系モデルをローカルPCで動かす方法を紹介します。GPUが貧弱なPCでも時間はかかりますがCPUだけで動作でき、また、NVIDIAのGeForceが刺さったゲーミングPCを持っているような方であれば快適に動かせます。有償版のプロダクトに手を出す前にLLMを使って遊んでみたい方には良いプロダクトだと思います。

デジタルマーケティング

ラボの活動を見直して、改めてオウンドメディアである当サイトの目的を考える

オウンドメディアである「InsurTech研究所」をリニューアルする機会が生まれたので、方針を決めるために、改めて当サイトの運営の目的を考えました。内部向けには発信とフィードバックを増やすこと、外部向けにはラボの活動を知ってもらい、好きになってもらうことが目的だと考えています。