罰則付き凸状回帰

罰則付き凸状回帰

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19788v1 発表種別: クロス

概要: 未知の凸回帰関数$f_0: \Omega \subset \mathbb{R}^d \rightarrow \mathbb{R}$を、$n$個のノイズを含む観測値から推定する一般的な方法は、二乗誤差和を最小化する凸関数を当てはめることです。しかし、この推定量は$\Omega$の境界付近で過剰適合する傾向があることが知られており、現実世界の応用において大きな課題となっています。本論文では、部分勾配に対するペナルティを最小化し、二乗誤差和の上限$s_n$を課すことで、この過剰適合を回避する$f_0$の新しい推定量を提案します。この方法の重要な利点は、$s_n$をデータから直接推定できることです。提案する推定量とその部分勾配の$\Omega$上での一様確実収束性を$n \rightarrow \infty$として確立し、収束速度を導出します。提案手法の有効性を、シングルサーバキューにおける待ち時間推定への応用を通して示します。

原文(英語)を表示

Title (EN): Convex Regression with a Penalty

arXiv:2509.19788v1 Announce Type: cross
Abstract: A common way to estimate an unknown convex regression function $f_0: \Omega \subset \mathbb{R}^d \rightarrow \mathbb{R}$ from a set of $n$ noisy observations is to fit a convex function that minimizes the sum of squared errors. However, this estimator is known for its tendency to overfit near the boundary of $\Omega$, posing significant challenges in real-world applications. In this paper, we introduce a new estimator of $f_0$ that avoids this overfitting by minimizing a penalty on the subgradient while enforcing an upper bound $s_n$ on the sum of squared errors. The key advantage of this method is that $s_n$ can be directly estimated from the data. We establish the uniform almost sure consistency of the proposed estimator and its subgradient over $\Omega$ as $n \rightarrow \infty$ and derive convergence rates. The effectiveness of our estimator is illustrated through its application to estimating waiting times in a single-server queue.

Published: 2025-09-24 19:00 UTC


コメントする