すべての人に一次情報を
研究は、非常に小さく単純なリザバーコンピュータが複数のカオス的振る舞い(アトラクタ、引力子)を同じ内部で記憶し、その中を切り替えられるかを調べています。結果は二面性を示しました。単一の装置で複数のアトラクタを同時に表現することはしばしば可能でしたが、外からの合図で確実に目標のアト
HorizonMathは、AIが本当に新しい数学的発見をできるかを試すための新しいベンチマークです。研究チームは、計算数学や応用数学の8分野にまたがる100以上の問題を集めました。これらの問題の多くは未解決で、答えが既知でないため、もしAIが正しい答えを出せば訓練データからの単な
この論文は、大きなスパース(まばら)行列の「条件数」を速く見積もる方法を提案します。条件数とは、線形方程式の解が入力データのわずかな変化にどれだけ敏感かを表す値です。正確に計算するには大きな計算コストが必要で、特に大きな行列では実用的でないことが多いです。本研究はグラフニューラル
この論文は、2つのデータ集合を点ごとに比べるためのシンプルで解釈しやすい指標を提案します。研究者らは観測値を単なるベクトルとして扱わず、共通の空間における幾何学的な関係=線形関係を尊重する視点から出発しました。具体的には、AとBという二つのデータ行列について「Ax = By =
この論文は、スコアベースの生成モデル(データの確率の勾配を学ぶモデル)を、最適化法の一つであるADMM(交互方向乗数法)に組み込む問題を扱っています。研究者らは、ADMMの反復過程がスコア関数を学習した「ノイズ付きデータの幾何(マニフォールド)」とずれること、そしてその結果として
何を扱う論文か。生成型レコメンダーとは、ユーザーの行動履歴から次に出すべき項目を順に生成するモデルです。本論文は、こうしたモデルをユーザーの実際の好みに合わせて「後学習」する際の手法を扱います。著者らは、既存の手法が産業規模のシステムでは問題を抱えると指摘し、観測される報酬だけを
この論文は、DNAやRNAを扱う「ゲノム言語モデル(GLM)」が学習データの個別配列をどの程度“記憶”するかを調べる研究です。著者らは、モデルが訓練データの特定の配列を再現すると、個人のゲノム情報が漏れる恐れがあると指摘します。こうした漏えいは遺伝情報が不変で特定可能である点から
要点:大規模言語モデル(LLM)は研究者の自然な言葉を実行可能な処理に変えられます。しかし科学的なワークフローでは再現性や記録(プロベナンス)、運用上の統制が必要です。本論文は「スキーマゲーティング」方式を提案し、会話で指示する柔軟さと実行の決定性(再現性)を分けて保つことで、こ
この論文は、AIが自らの出力を繰り返し改良する「再帰的自己改善」で起きる微妙な“整合性のずれ”(アラインメントドリフト)を監視し、抑える実用的な枠組みを示します。研究者たちはSAHOOと名付けた仕組みを提案しました。SAHOOは三つの補完的な安全措置で働きます。第一にGoal D
この論文は、ゲノムを表す「埋め込み(embedding)」という数値ベクトルが、元のDNA配列を漏らしてしまうかを調べた研究です。埋め込みは大規模なDNA基盤モデル(foundation model)から作られ、他者に共有して下流の解析に使われます。著者らは、第三者がその埋め込み