| 書目名稱 | Verbesserung von Klassifikationsverfahren |
| 副標(biāo)題 | Informationsgehalt d |
| 編輯 | Dominik Koch |
| 視頻video | http://file.papertrans.cn/982/981136/981136.mp4 |
| 概述 | Studie im Bereich Statistik.Includes supplementary material: |
| 叢書名稱 | BestMasters |
| 圖書封面 |  |
| 描述 | .Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-N?chsten-Nachbarn m?glich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-N?chste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten F?llen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-N?chsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-N?chsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf bin?re Klassifikationsprobleme behandelt.. |
| 出版日期 | Book 2016 |
| 關(guān)鍵詞 | k-N?chste-Nachbarn; Random Forest; Lasso; Boosting; N?chste Nachbarn |
| 版次 | 1 |
| doi | https://doi.org/10.1007/978-3-658-11476-3 |
| isbn_softcover | 978-3-658-11475-6 |
| isbn_ebook | 978-3-658-11476-3Series ISSN 2625-3577 Series E-ISSN 2625-3615 |
| issn_series | 2625-3577 |
| copyright | Springer Fachmedien Wiesbaden 2016 |