arXiv News

すべての人に一次情報を

法務

プライバシーポリシー利用規約

© 2026 arXiv News

arXiv News

英語日本語

言語を切り替え

英語日本語
アカウントを読み込み中…

すべての人に一次情報を

最新
AVISE:AIシステムの脆弱性を自動で見つけるモジュール式オープンソース枠組みAVISE:言語モデルの「脱獄」脆弱性を自動で探すためのオープンな評価フレームワーク組み込み機器向けに量子乱数を送る「Post‑Quantum Entropy as a Service」をESP32で実証ゲノム言語モデルは“記憶”するか?多手法でプライバシーリスクを評価した新しい枠組み国境を越える医療研究向けのガバナンス統合フェデレーテッド学習基盤 FLA³ — 5施設展開と54,446サンプルの検証マルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案Arbiter:LLMベースのコーディングエージェントの“システムプロンプト”に潜む矛盾を見つける仕組みSBOM(部品表)を能動化して実行時の脆弱性を評価する「AIBOM」:エージェント群と規格拡張で再現性と説明性を向上AVISE:AIシステムの脆弱性を自動で見つけるモジュール式オープンソース枠組みAVISE:言語モデルの「脱獄」脆弱性を自動で探すためのオープンな評価フレームワーク組み込み機器向けに量子乱数を送る「Post‑Quantum Entropy as a Service」をESP32で実証ゲノム言語モデルは“記憶”するか?多手法でプライバシーリスクを評価した新しい枠組み国境を越える医療研究向けのガバナンス統合フェデレーテッド学習基盤 FLA³ — 5施設展開と54,446サンプルの検証マルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案Arbiter:LLMベースのコーディングエージェントの“システムプロンプト”に潜む矛盾を見つける仕組みSBOM(部品表)を能動化して実行時の脆弱性を評価する「AIBOM」:エージェント群と規格拡張で再現性と説明性を向上

今日の記事

2026年5月1日金曜日
すべて人工知能機械学習自然言語処理コンピュータビジョンロボティクス暗号物理学数学
人工知能注目

AVISE:AIシステムの脆弱性を自動で見つけるモジュール式オープンソース枠組み

この論文は、AIシステムのセキュリティ評価を自動化するための枠組み「AVISE(AI Vulnerability Identification and Security Evaluation)」を紹介します。著者たちは、特に言語モデルに対する「ジャイルブレイク」(モデルの安全制約

2026年4月24日JA2分
記事全文を読む

最新の記事

人工知能
2026年4月23日

AVISE:言語モデルの「脱獄」脆弱性を自動で探すためのオープンな評価フレームワーク

この論文は、AIシステムの安全性を体系的に評価するためのフレームワーク「AVISE(AI Vulnerability Identification and Security Evaluation)」を提案します。AVISEはモジュール式でオープンソースです。研究者や実務者がAIモ

JA
2分
暗号
2026年3月16日

組み込み機器向けに量子乱数を送る「Post‑Quantum Entropy as a Service」をESP32で実証

この論文は、量子乱数発生器(QRNG: 量子乱数発生器)由来の良質な乱数(エントロピー)を、ポスト量子暗号(PQC: 量子耐性を持つ暗号)で保護した経路を使って小型機器に届ける仕組みを示します。研究チームはサーバー側でQRNG(Quantis PCIe‑240M)から乱数を取り出

JA
2分
機械学習
2026年3月14日

ゲノム言語モデルは“記憶”するか?多手法でプライバシーリスクを評価した新しい枠組み

この論文は、DNAやRNAを扱う「ゲノム言語モデル(GLM)」が学習データの個別配列をどの程度“記憶”するかを調べる研究です。著者らは、モデルが訓練データの特定の配列を再現すると、個人のゲノム情報が漏れる恐れがあると指摘します。こうした漏えいは遺伝情報が不変で特定可能である点から

JA
2分
広告
暗号
2026年3月13日

国境を越える医療研究向けのガバナンス統合フェデレーテッド学習基盤 FLA³ — 5施設展開と54,446サンプルの検証

この論文は、患者データを各施設に残したまま機械学習モデルを作る「フェデレーテッドラーニング(FL)」に、実運用で必要なガバナンス(統制)機能を組み込んだ基盤を示します。研究者らは、参加者の認証・認可・記録(Authentication, Authorisation, Accoun

JA
2分
人工知能
2026年3月13日

マルチエージェントAI(MAS)の新しい危険地図:193の脅威と既存フレームワークの欠落点を比較分析

この論文は、複数の自律エージェントが記憶を共有し、ツール権限を委譲し合いながら協調する「マルチエージェント人工知能(MAS)」が抱える固有のセキュリティ問題を体系的に明らかにします。MASでは、単一のAIモデルとは異なり、行動が挙動的で出現的(予測しにくく現れる)になりやすく、既

JA
2分
人工知能
2026年3月13日

ツール実行の「領収書」でAIの幻覚を検出する方法——NabaOSが示す低遅延の実用案

この論文は、外部ツールを呼び出すAIエージェントが出す「幻覚」的な主張を、軽量な検証で現実的に見抜く仕組みを示します。研究者らはNabaOSという枠組みを提案しました。NabaOSは、各ツール呼び出しに対してHMAC(ハッシュベースのメッセージ認証コード)で署名した実行領収書を発

JA
2分
人工知能
2026年3月13日

Arbiter:LLMベースのコーディングエージェントの“システムプロンプト”に潜む矛盾を見つける仕組み

要点:研究者たちは「Arbiter」という枠組みを作り、複数の大規模言語モデル(LLM)と形式ルールを組み合わせて、コーディングエージェントのシステムプロンプト内で起きる「干渉(矛盾や重複)」を検出しました。システムプロンプトはエージェントの振る舞いを決めるソフトウェア的な文書で

JA
2分
人工知能
2026年3月13日

SBOM(部品表)を能動化して実行時の脆弱性を評価する「AIBOM」:エージェント群と規格拡張で再現性と説明性を向上

この論文は、従来のSBOM(Software Bill of Materials、ソフトウェア部品表)を受動的な一覧から「能動的に考える」証跡(AIBOM: Artificial Intelligence Bill of Materials)へと拡張する方法を示します。著者らは、

JA
2分