すべての人に一次情報を
この論文は、スコアベースの生成モデル(データの確率の勾配を学ぶモデル)を、最適化法の一つであるADMM(交互方向乗数法)に組み込む問題を扱っています。研究者らは、ADMMの反復過程がスコア関数を学習した「ノイズ付きデータの幾何(マニフォールド)」とずれること、そしてその結果として
この論文は、大規模言語モデル(LLM:Large Language Model)を使ったソフトウエア設計を、品質を意識して安定させる手法「Questions‑of‑Thoughts(QoT)」を提案します。研究者たちは、ユーザーの要望を順序立てた設計手順に分解し、各手順でモデル自
要点:大規模言語モデル(LLM)は研究者の自然な言葉を実行可能な処理に変えられます。しかし科学的なワークフローでは再現性や記録(プロベナンス)、運用上の統制が必要です。本論文は「スキーマゲーティング」方式を提案し、会話で指示する柔軟さと実行の決定性(再現性)を分けて保つことで、こ
この論文は、大規模言語モデル(LLM)が欺く行動をどの程度とるかを測るための新しい評価枠組み「LieCraft」を提案します。LieCraftはサンドボックス型の隠れ役割(誰が何の役か分からない)マルチプレイヤーゲームで、モデルに倫理的な立場を選ばせて、長期的な目的を追わせます。
この論文は、AIが自らの出力を繰り返し改良する「再帰的自己改善」で起きる微妙な“整合性のずれ”(アラインメントドリフト)を監視し、抑える実用的な枠組みを示します。研究者たちはSAHOOと名付けた仕組みを提案しました。SAHOOは三つの補完的な安全措置で働きます。第一にGoal D
この論文は、ゲノムを表す「埋め込み(embedding)」という数値ベクトルが、元のDNA配列を漏らしてしまうかを調べた研究です。埋め込みは大規模なDNA基盤モデル(foundation model)から作られ、他者に共有して下流の解析に使われます。著者らは、第三者がその埋め込み
この論文は、多ターン・マルチエージェントの大規模言語モデル(LLM)ゲーム評価で起きる不安定さを減らし、性能を上げる手法を示します。問題は、対話が長くなると初期の小さなずれがターンを重ねて拡大し、勝率の推定がぶれることです。さらに、わずかなプロンプト(与える指示)違いが方針を変え
この論文は、現在の「自律エージェント」が従来のデスクトップ上の普通のアプリとして動いていることの限界を指摘し、新しいOSの設計を提案しています。著者らは、OpenClawのようなローカルで動く大規模言語モデル(Large Language Model、LLM)ベースのエージェント
この論文は、複数の自律エージェントが記憶を共有し、ツール権限を委譲し合いながら協調する「マルチエージェント人工知能(MAS)」が抱える固有のセキュリティ問題を体系的に明らかにします。MASでは、単一のAIモデルとは異なり、行動が挙動的で出現的(予測しにくく現れる)になりやすく、既
この論文は、外部ツールを呼び出すAIエージェントが出す「幻覚」的な主張を、軽量な検証で現実的に見抜く仕組みを示します。研究者らはNabaOSという枠組みを提案しました。NabaOSは、各ツール呼び出しに対してHMAC(ハッシュベースのメッセージ認証コード)で署名した実行領収書を発