Trevor Hastie/著 -- ヘイスティ,T.J. -- 共立出版 -- 2014.6 -- 007.13

※所蔵欄の「帯出区分」が「貸出禁止」のものや、「状態」が「在架」のものは予約できません。

※奄美図書館からの取り寄せは、システムの関係上、来館しての手続きが必要です。

所蔵

所蔵は 1 件です。現在の予約件数は 0 件です。

所蔵館 所蔵場所 請求記号 資料コード 資料区分 帯出区分 状態
県図一般 書庫A2層 007.1/ヘ014 0115122301 一般図書   在架

館別所蔵

館名 所蔵数 貸出中数 貸出可能数
県図一般 1 0 1

資料詳細

タイトル 統計的学習の基礎
書名カナ トウケイテキ ガクシュウ ノ キソ
副書名 データマイニング・推論・予測
著者 Trevor Hastie /著, Robert Tibshirani /著, Jerome Friedman /著, 杉山 将 /監訳, 井手 剛 /監訳, 神嶌 敏弘 /監訳, 栗田 多喜夫 /監訳, 前田 英作 /監訳, 井尻 善久 /[ほか]訳  
著者カナ ヘイスティ,T.J.
出版地 東京
出版者 共立出版
出版者カナ キョウリツ シュッパン
出版年 2014.6
ページ数 25,853p
大きさ 22cm
一般件名 パターン認識 , 数理統計学
内容紹介 統計的学習分野の世界的に著名なテキストの全訳。回帰や分類などの教師あり学習の入門的な話題から、グラフィカルモデルや高次元学習問題に対するスパース学習法などの最新の話題までを幅広く網羅する。演習問題も収録。
NDC分類(9版) 007.13
ISBN 4-320-12362-5
ISBN13桁 978-4-320-12362-5
定価 ¥14000

目次

第1章 序章
第2章 教師あり学習の概要
  2.1 導入
  2.2 変数の種類と用語
  2.3 予測のための二つの簡単なアプローチ:最小2乗法と最近傍法
  2.4 統計的決定理論
  2.5 高次元での局所的手法
  2.6 統計モデル,教師あり学習,関数近似
  2.7 構造化回帰モデル
  2.8 制限付き推定法
  2.9 モデル選択と,バイアスと分散のトレードオフ
第3章 回帰のための線形手法
  3.1 導入
  3.2 線形回帰モデルと最小2乗法
  3.3 変数選択
  3.4 縮小推定
  3.5 入力に対して線形変換を行う方法
  3.6 考察:選択法と縮小法の比較
  3.7 複数の目的変数の縮小推定と変数選択
  3.8 lassoと関連する解追跡アルゴリズムに関する詳細
  3.9 計算上考慮すべき事柄
第4章 分類のための線形手法
  4.1 導入
  4.2 指示行列の線形回帰
  4.3 線形判別分析
  4.4 ロジスティック回帰
  4.5 分離超平面
  本章の参考文献
  本章の演習
第5章 基底展開と正則化
  5.1 導入
  5.2 区分的多項式とスプライン
  5.3 フィルタリングと特徴抽出
  5.4 平滑化スプライン
  5.5 平滑化パラメータの自動選択
  5.6 ノンパラメトリックロジスティック回帰
  5.7 多次元スプライン
  5.8 正則化と再生核ヒルベルト空間
  5.9 ウェーブレット平滑化
第6章 カーネル平滑化法
  6.1 1次元カーネル平滑化手法
  6.2 カーネル幅の選択
  6.3 Rpにおける局所回帰
  6.4 Rpにおける構造化局所回帰モデル
  6.5 局所尤度およびその他の手法
  6.6 カーネル密度推定と識別
  6.7 動径基底関数とカーネル
  6.8 密度推定と識別のための混合モデル
  6.9 計算上考慮すべき事柄
第7章 モデルの評価と選択
  7.1 導入
  7.2 バイアス,分散,モデルの複雑度
  7.3 バイアス-分散分解
  7.4 訓練誤差の最善度
  7.5 訓練標本外誤差の推定
  7.6 有効パラメータ数
  7.7 ベイズ法とベイズ情報量規準
  7.8 最小記述長
  7.9 バプニック=チェルボネンキス次元
第8章 モデル推論と平均化
  8.1 導入
  8.2 ブートストラップと最尤推定法
  8.3 ベイズ法
  8.4 ブートストラップ法とベイズ推論の関係
  8.5 EMアルゴリズム
  8.6 事後確率分布から標本抽出するためのMCMC
  8.7 バギング
  8.8 モデルの平均と統合
  8.9 確率的探索:バンピング
第9章 加法的モデル,木,および関連手法
  9.1 一般化加法的モデル
  9.2 木に基づく方法
  9.3 抑制的規則導出法
  9.4 多変量適応的回帰スプライン
  9.5 階層的エキスパート混合モデル
  9.6 欠損データ
  9.7 計算上考慮すべき事柄
  本章の参考文献
  本章の演習
第10章 ブースティングと加法的木
  10.1 ブースティング法
  10.2 ブースティングによる加法的モデル当てはめ
  10.3 前向き段階的加法的モデリング
  10.4 指数損失とアダブースト
  10.5 なぜ指数損失関数か
  10.6 損失関数とロバスト性
  10.7 データマイニングの「万能」手法
  10.8 例:スパムデータ
  10.9 ブースティング木
第11章 ニューラルネットワーク
  11.1 導入
  11.2 射影追跡回帰
  11.3 ニューラルネットワーク
  11.4 ニューラルネットワークの当てはめ
  11.5 ニューラルネットワークを訓練するときのいくつかの問題
  11.6 例:試行データ
  11.7 例:郵便番号データ
  11.8 考察
  11.9 ベイズニューラルネットワークとNIPS 2003チャレンジ
第12章 サポートベクトルマシンと適応型判別
  12.1 導入
  12.2 サポートベクトル分類器
  12.3 サポートベクトルマシンとカーネル
  12.4 線形判別分析の一般化
  12.5 適応型判別分析
  12.6 罰則付き判別分析
  12.7 混合判別分析
  12.8 計算上考慮すべき事柄
  本章の参考文献
第13章 プロトタイプ法と最近傍探索
  13.1 導入
  13.2 プロトタイプ法
  13.3 k最近傍分類器
  13.4 適応的最近傍法
  13.5 計算上考慮すべき事柄
  本章の参考文献
  本章の演習
第14章 教師なし学習
  14.1 導入
  14.2 相関ルール
  14.3 クラスタ分析
  14.4 自己組織化マップ
  14.5 主成分分析と主曲線・主曲面
  14.6 非負値行列分解
  14.7 独立成分分析と探索的射影追跡
  14.8 多次元尺度構成法
  14.9 非線形次元削減と局所多次元尺度構成法
第15章 ランダムフォレスト
  15.1 導入
  15.2 ランダムフォレストの定義
  15.3 ランダムフォレストの詳細
  15.4 ランダムフォレストの解析
  本章の参考文献
  本章の演習
第16章 アンサンブル学習
  16.1 導入
  16.2 ブースティングと正則化軌跡
  16.3 アンサンブルの学習
  本章の参考文献
  本章の演習
第17章 無向グラフィカルモデル
  17.1 導入
  17.2 マルコフグラフとその性質
  17.3 連続変数に対する無向グラフィカルモデル
  17.4 離散変数に対する無向グラフィカルモデル
  本章の参考文献
  本章の演習
第18章 高次元の問題
  18.1 pがNよりもかなり大きい場合
  18.2 対角線形判別分析と最近傍縮小重心
  18.3 2次正則化を用いた線形分類器
  18.4 L1正則化を用いた線形分類器
  18.5 特徴量が使えない場合の分類
  18.6 高次元回帰:教師あり主成分分析
  18.7 特徴量評価と多重検定問題
  本章の参考文献
  本章の演習