すべての人に一次情報を
この論文は、複数の大規模言語モデル(AIエージェント)が、予測市場で売買を通じて分散した私的情報を集約できるかを調べています。研究者は、二者択一の結果に0か1を支払う金融的な「証券」を使い、最後の市場価格が真の値にどれだけ近いか(最後の価格の対数誤差で測定)を情報集約の指標にしま
この論文は、AIシステムのセキュリティ評価を自動化するための枠組み「AVISE(AI Vulnerability Identification and Security Evaluation)」を紹介します。著者たちは、特に言語モデルに対する「ジャイルブレイク」(モデルの安全制約
この論文は、AIシステムの安全性を体系的に評価するためのフレームワーク「AVISE(AI Vulnerability Identification and Security Evaluation)」を提案します。AVISEはモジュール式でオープンソースです。研究者や実務者がAIモ
この論文は、大規模言語モデル(LLM)で動く自律的なAIエージェントを市場に参加させる実験で、AIの売買行動と市場全体の動きを調べた研究です。研究者は三つの主要な結果を報告します。第一に、個々のAIは人間で知られる行動パターンを示しました。第二に、そうした個別の傾向が集まると、古
研究者らはMathNetという大規模で多言語・マルチモーダルな数学データセットとベンチマークを公開しました。MathNetにはオリンピアード(競技数学)レベルの問題が30,676問収められており、17言語、47か国、約4十年分の大会から専門家が作成した解答が付いています。目的は「
AIの会話や実行の記録(トレース)は大量に残ります。問題は、危険な行為の証拠が一つの記録だけでは見えないことがある点です。たとえば、ランサムウェアの攻撃では「ファイルを暗号化するコードを書く」「復号のために金を要求する文面を書く」など複数の別々の会話が組み合わさって初めて危険だと
この論文は、画像と言葉を同時に扱う「エージェント型マルチモーダルモデル」が外部ツールを過剰に使ってしまう問題に取り組みます。研究者らは、ツール呼び出しをただ罰する従来の強化学習がうまく働かないことを指摘し、正答を重視する道と効率(ツールの節約)を分けて学ぶ新しい枠組みHDPO(H
この論文は、腹部外傷のCT(コンピュータ断層撮影)画像に対する「基盤モデル」が臨床でどのように振る舞うかを調べています。研究者らは、まれで死亡率の高い外傷性腸損傷の検出を題材に、基盤モデルが「陰性」ケースの多様性(他の臓器損傷が混ざること)に弱いかを検証しました。結論は、基盤モデ
この論文は、大型言語モデル(LLM: Large Language Models)が経済や金融の判断で体系的な心理的偏りを示すかどうかを調べ、もしあればどう直せるかを探る研究です。著者らは認知心理学と実験経済学で使われる質問をそのまま使い、複数の主要なLLMファミリーに対して最も
この論文は、大規模言語モデル(LLM)を医療現場で安全に使うための評価基準を作る話です。既存の医療ベンチマークは静的で、テストデータが学習データに混入してしまう「データ汚染」や、医療知識の変化に追いつけない「時間的ずれ」の問題がありました。著者らはこれらを減らすために、週次で更新