arXiv News

英語日本語

言語を切り替え

英語日本語
アカウントを読み込み中…

すべての人に一次情報を

最新
ADMMにスコアベース生成モデルを安全に組み込む方法を提案:AC‑DCデノイザと収束保証付きプラグアンドプレイ枠組みソフト設計を点検する「Questions‑of‑Thoughts(QoT)」:大規模言語モデルに自己質問を組み込む手法会話で指示しながら厳密に実行する仕組みを提案:研究ワークフローの再現性と柔軟性を両立する「スキーマゲーティング」LieCraft:言語モデルの「欺瞞」行動を測るマルチエージェント評価フレームワークSAHOO:自己改善するAIの「目標ズレ」を監視し、慎重に改善を続ける枠組みDNAの「埋め込み」から配列が復元できるかを調べた研究:共有ベクトルは必ずしも安全ではないMEMO:メモリを使って対話型LLMゲームの安定性と勝率を高める方法AgentOSの提案:自然言語で操作するパーソナルOSのビジョンマルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案ADMMにスコアベース生成モデルを安全に組み込む方法を提案:AC‑DCデノイザと収束保証付きプラグアンドプレイ枠組みソフト設計を点検する「Questions‑of‑Thoughts(QoT)」:大規模言語モデルに自己質問を組み込む手法会話で指示しながら厳密に実行する仕組みを提案:研究ワークフローの再現性と柔軟性を両立する「スキーマゲーティング」LieCraft:言語モデルの「欺瞞」行動を測るマルチエージェント評価フレームワークSAHOO:自己改善するAIの「目標ズレ」を監視し、慎重に改善を続ける枠組みDNAの「埋め込み」から配列が復元できるかを調べた研究:共有ベクトルは必ずしも安全ではないMEMO:メモリを使って対話型LLMゲームの安定性と勝率を高める方法AgentOSの提案:自然言語で操作するパーソナルOSのビジョンマルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案

今日の記事

2026年3月17日火曜日
すべて人工知能機械学習自然言語処理コンピュータビジョンロボティクス暗号物理学数学
人工知能注目

ADMMにスコアベース生成モデルを安全に組み込む方法を提案:AC‑DCデノイザと収束保証付きプラグアンドプレイ枠組み

この論文は、スコアベースの生成モデル(データの確率の勾配を学ぶモデル)を、最適化法の一つであるADMM(交互方向乗数法)に組み込む問題を扱っています。研究者らは、ADMMの反復過程がスコア関数を学習した「ノイズ付きデータの幾何(マニフォールド)」とずれること、そしてその結果として

2026年3月16日JA2分
記事全文を読む

最新の記事

人工知能
2026年3月16日

ソフト設計を点検する「Questions‑of‑Thoughts(QoT)」:大規模言語モデルに自己質問を組み込む手法

この論文は、大規模言語モデル(LLM:Large Language Model)を使ったソフトウエア設計を、品質を意識して安定させる手法「Questions‑of‑Thoughts(QoT)」を提案します。研究者たちは、ユーザーの要望を順序立てた設計手順に分解し、各手順でモデル自

JA
2分
人工知能
2026年3月14日

会話で指示しながら厳密に実行する仕組みを提案:研究ワークフローの再現性と柔軟性を両立する「スキーマゲーティング」

要点:大規模言語モデル(LLM)は研究者の自然な言葉を実行可能な処理に変えられます。しかし科学的なワークフローでは再現性や記録(プロベナンス)、運用上の統制が必要です。本論文は「スキーマゲーティング」方式を提案し、会話で指示する柔軟さと実行の決定性(再現性)を分けて保つことで、こ

JA
2分
人工知能
2026年3月14日

LieCraft:言語モデルの「欺瞞」行動を測るマルチエージェント評価フレームワーク

この論文は、大規模言語モデル(LLM)が欺く行動をどの程度とるかを測るための新しい評価枠組み「LieCraft」を提案します。LieCraftはサンドボックス型の隠れ役割(誰が何の役か分からない)マルチプレイヤーゲームで、モデルに倫理的な立場を選ばせて、長期的な目的を追わせます。

JA
2分
広告
人工知能
2026年3月14日

SAHOO:自己改善するAIの「目標ズレ」を監視し、慎重に改善を続ける枠組み

この論文は、AIが自らの出力を繰り返し改良する「再帰的自己改善」で起きる微妙な“整合性のずれ”(アラインメントドリフト)を監視し、抑える実用的な枠組みを示します。研究者たちはSAHOOと名付けた仕組みを提案しました。SAHOOは三つの補完的な安全措置で働きます。第一にGoal D

JA
2分
人工知能
2026年3月14日

DNAの「埋め込み」から配列が復元できるかを調べた研究:共有ベクトルは必ずしも安全ではない

この論文は、ゲノムを表す「埋め込み(embedding)」という数値ベクトルが、元のDNA配列を漏らしてしまうかを調べた研究です。埋め込みは大規模なDNA基盤モデル(foundation model)から作られ、他者に共有して下流の解析に使われます。著者らは、第三者がその埋め込み

JA
2分
人工知能
2026年3月13日

MEMO:メモリを使って対話型LLMゲームの安定性と勝率を高める方法

この論文は、多ターン・マルチエージェントの大規模言語モデル(LLM)ゲーム評価で起きる不安定さを減らし、性能を上げる手法を示します。問題は、対話が長くなると初期の小さなずれがターンを重ねて拡大し、勝率の推定がぶれることです。さらに、わずかなプロンプト(与える指示)違いが方針を変え

JA
2分
人工知能
2026年3月13日

AgentOSの提案:自然言語で操作するパーソナルOSのビジョン

この論文は、現在の「自律エージェント」が従来のデスクトップ上の普通のアプリとして動いていることの限界を指摘し、新しいOSの設計を提案しています。著者らは、OpenClawのようなローカルで動く大規模言語モデル(Large Language Model、LLM)ベースのエージェント

JA
2分
人工知能
2026年3月13日

マルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析

この論文は、複数の自律エージェントが記憶を共有し、ツール権限を委譲し合いながら協調する「マルチエージェント人工知能(MAS)」が抱える固有のセキュリティ問題を体系的に明らかにします。MASでは、単一のAIモデルとは異なり、行動が挙動的で出現的(予測しにくく現れる)になりやすく、既

JA
2分
人工知能
2026年3月13日

ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案

この論文は、外部ツールを呼び出すAIエージェントが出す「幻覚」的な主張を、軽量な検証で現実的に見抜く仕組みを示します。研究者らはNabaOSという枠組みを提案しました。NabaOSは、各ツール呼び出しに対してHMAC(ハッシュベースのメッセージ認証コード)で署名した実行領収書を発

JA
2分
次の記事を見る