ある変数の振る舞いが他の変数の動きに起因していると考えて数理モデルを組むことで、前者(被説明変数または従属変数)が後者(説明変数または独立変数)によってどの程度説明できるのかを定量的に分析すること。説明変数が一つの場合は単回帰分析(simple regression analysis)、二つ以上の場合には重回帰分析(multiple regression analysis)と呼ばれ区別される。被説明変数が説明変数の1次関数と誤差項によって決定されると仮定されることが多く、このような線形モデルを用いた分析を線形回帰(linear regression)と呼ぶ。
モデル内のパラメーターを推定するには様々な方法があるが、被説明変数に関するモデルの推定値と実際の観測値の差の二乗和が最小とするようにパラメーターを設定する、最小二乗法(least square method)という手法が最も代表的である。回帰分析によって得られたパラメーターは、あくまで両変数間の相関を表したものであり、因果関係を直接意味するとは限らない、という点に十分に注意する必要がある。