Python機器學習算法

Python機器學習算法 pdf epub mobi txt 電子書 下載 2025

趙誌勇 著
想要找書就要到 靜流書站
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
齣版社: 電子工業齣版社
ISBN:9787121313196
版次:1
商品編碼:12109305
品牌:Broadview
包裝:平裝
開本:16
齣版時間:2017-07-01
用紙:膠版紙
頁數:364

具體描述

産品特色

編輯推薦

  

探索數據的內在價值,洞悉人工智能背後的技術!

內容簡介

  

《Python機器學習算法》是一本機器學習入門讀物,注重理論與實踐的結閤。全書主要包括6個部分,每個部分均以典型的機器學習算法為例,從算法原理齣發,由淺入深,詳細介紹算法的理論,並配閤目前流行的Python語言,從零開始,實現每一個算法,以加強對機器學習算法理論的理解、增強實際的算法實踐能力,最終達到熟練掌握每一個算法的目的。與其他機器學習類圖書相比,《Python機器學習算法》同時包含算法理論的介紹和算法的實踐,以理論支撐實踐,同時,又將復雜、枯燥的理論用簡單易懂的形式錶達齣來,促進對理論的理解。

精彩書評

  

在人工智能時代,機器學習已經成瞭互聯網從業人員和在校學生的一門必修課。市場上不乏機器學習相關的書籍,但大都晦澀難懂而缺乏應用場景。本書是作者在新浪微博廣告業務上一手的實踐經驗和心得體會,具有實用性,非常適閤於對機器學習感興趣但沒有經驗的開發人員,和渴望瞭解“理論知識如何在業務中應用”的在校學生,相信你們一定可以從中找到想要的答案。

——新浪微博高級技術經理 薑貴彬

本書沒有使用高深復雜的數學邏輯來解釋機器學習,而是從直觀簡潔的介紹入手,通俗易懂,再輔助於代碼實現幫助讀者理解算法細節,是機器學習入門一本不可多得的好書,推薦。

——百度資深技術專傢 毛欽

本書從具體的代碼開始去理解抽象的算法,給讀者一種腳踏實地的感覺,推薦給所有工程齣身有誌於算法的工程師。

——阿裏媽媽算法工程技術專傢 易慧民

本書對常用的機器學習算法進行瞭深入和全麵的介紹,書中大量的代碼清單令人印象尤為深刻,確實是一本實用易懂、快速入門的好書。

——美團·大眾點評資深技術專傢 潘文彬

目錄

0緒論1

0.1機器學習基礎1

0.1.1機器學習的概念1

0.1.2機器學習算法的分類2

0.2監督學習3

0.2.1監督學習3

0.2.2監督學習的流程3

0.2.3監督學習算法4

0.3無監督學習4

0.3.1無監督學習4

0.3.2無監督學習的流程4

0.3.3無監督學習算法5

0.4推薦係統和深度學習6

0.4.1推薦係統6

0.4.2深度學習6

0.5Python和機器學習算法實踐6

參考文獻7


第一部分分類算法

1Logistic Regression10

1.1Logistic Regression模型10

1.1.1綫性可分VS綫性不可分10

1.1.2Logistic Regression模型11

1.1.3損失函數13

1.2梯度下降法14

1.2.1梯度下降法的流程14

1.2.2凸優化與非凸優化15

1.2.3利用梯度下降法訓練Logistic Regression模型17

1.3梯度下降法的若乾問題18

1.3.1選擇下降的方嚮18

1.3.2步長的選擇19

1.4Logistic Regression算法實踐20

1.4.1利用訓練樣本訓練Logistic Regression模型20

1.4.2最終的訓練效果22

1.4.3對新數據進行預測23

參考文獻26

2Softmax Regression27

2.1多分類問題27

2.2Softmax Regression算法模型28

2.2.1Softmax Regression模型28

2.2.2Softmax Regression算法的代價函數28

2.3Softmax Regression算法的求解29

2.4Softmax Regression與Logistic Regression的關係31

2.4.1Softmax Regression中的參數特點31

2.4.2由Softmax Regression到Logistic Regression31

2.5Softmax Regression算法實踐32

2.5.1對Softmax Regression算法的模型進行訓練33

2.5.2最終的模型34

2.5.3對新的數據的預測35

參考文獻39

3Factorization Machine40

3.1Logistic Regression算法的不足40

3.2因子分解機FM的模型42

3.2.1因子分解機FM模型42

3.2.2因子分解機FM可以處理的問題43

3.2.3二分類因子分解機FM算法的損失函數43

3.3FM算法中交叉項的處理43

3.3.1交叉項係數43

3.3.2模型的求解44

3.4FM算法的求解45

3.4.1隨機梯度下降(Stochastic Gradient Descent)45

3.4.2基於隨機梯度的方式求解45

3.4.3FM算法流程46

3.5因子分解機FM算法實踐49

3.5.1訓練FM模型50

3.5.2最終的訓練效果53

3.5.3對新的數據進行預測55

參考文獻57

4支持嚮量機58

4.1二分類問題58

4.1.1二分類的分隔超平麵58

4.1.2感知機算法59

4.1.3感知機算法存在的問題61

4.2函數間隔和幾何間隔61

4.2.1函數間隔62

4.2.2幾何間隔62

4.3支持嚮量機63

4.3.1間隔最大化63

4.3.2支持嚮量和間隔邊界64

4.3.3綫性支持嚮量機65

4.4支持嚮量機的訓練66

4.4.1學習的對偶算法66

4.4.2由綫性支持嚮量機到非綫性支持嚮量機68

4.4.3序列最小最優化算法SMO69

4.5支持嚮量機SVM算法實踐74

4.5.1訓練SVM模型74

4.5.2利用訓練樣本訓練SVM模型81

4.5.3利用訓練好的SVM模型對新數據進行預測85

參考文獻88

5隨機森林89

5.1決策樹分類器89

5.1.1決策樹的基本概念89

5.1.2選擇最佳劃分的標準91

5.1.3停止劃分的標準94

5.2CART分類樹算法95

5.2.1CART分類樹算法的基本原理95

5.2.2CART分類樹的構建95

5.2.3利用構建好的分類樹進行預測98

5.3集成學習(Ensemble Learning)99

5.3.1集成學習的思想99

5.3.2集成學習中的典型方法99

5.4隨機森林(Random Forests)101

5.4.1隨機森林算法模型101

5.4.2隨機森林算法流程102

5.5隨機森林RF算法實踐104

5.5.1訓練隨機森林模型105

5.5.2最終的訓練結果109

5.5.3對新數據的預測110

參考文獻113

6BP神經網絡114

6.1神經元概述114

6.1.1神經元的基本結構114

6.1.2激活函數115

6.2神經網絡模型116

6.2.1神經網絡的結構116

6.2.2神經網絡中的參數說明117

6.2.3神經網絡的計算117

6.3神經網絡中參數的求解118

6.3.1神經網絡損失函數118

6.3.2損失函數的求解119

6.3.3BP神經網絡的學習過程120

6.4BP神經網絡中參數的設置126

6.4.1非綫性變換126

6.4.2權重嚮量的初始化126

6.4.3學習率127

6.4.4隱含層節點的個數127

6.5BP神經網絡算法實踐127

6.5.1訓練BP神經網絡模型128

6.5.2最終的訓練效果132

6.5.3對新數據的預測133

參考文獻136


第二部分迴歸算法

7綫性迴歸138

7.1基本綫性迴歸138

7.1.1綫性迴歸的模型138

7.1.2綫性迴歸模型的損失函數139

7.2綫性迴歸的最小二乘解法140

7.2.1綫性迴歸的最小二乘解法140

7.2.2廣義逆的概念141

7.3牛頓法141

7.3.1基本牛頓法的原理141

7.3.2基本牛頓法的流程142

7.3.3全局牛頓法142

7.3.4Armijo搜索144

7.3.5利用全局牛頓法求解綫性迴歸模型145

7.4利用綫性迴歸進行預測146

7.4.1訓練綫性迴歸模型147

7.4.2最終的訓練結果149

7.4.3對新數據的預測150

7.5局部加權綫性迴歸152

7.5.1 局部加權綫性迴歸模型152

7.5.2局部加權綫性迴歸的最終結果153

參考文獻154

8嶺迴歸和Lasso迴歸155

8.1綫性迴歸存在的問題155

8.2嶺迴歸模型156

8.2.1嶺迴歸模型156

8.2.2嶺迴歸模型的求解156

8.3Lasso迴歸模型157

8.4擬牛頓法158

8.4.1擬牛頓法158

8.4.2BFGS校正公式的推導158

8.4.3BFGS校正的算法流程159

8.5L-BFGS求解嶺迴歸模型162

8.5.1BGFS算法存在的問題162

8.5.2L-BFGS算法思路162

8.6嶺迴歸對數據的預測165

8.6.1訓練嶺迴歸模型166

8.6.2最終的訓練結果168

8.6.3利用嶺迴歸模型預測新的數據168

參考文獻171

9CART樹迴歸172

9.1復雜的迴歸問題172

9.1.1綫性迴歸模型172

9.1.2局部加權綫性迴歸173

9.1.3CART算法174

9.2CART迴歸樹生成175

9.2.1CART迴歸樹的劃分175

9.2.2CART迴歸樹的構建177

9.3CART迴歸樹剪枝179

9.3.1前剪枝179

9.3.2後剪枝180

9.4CART迴歸樹對數據預測180

9.4.1利用訓練數據訓練CART迴歸樹模型180

9.4.2最終的訓練結果182

9.4.3利用訓練好的CART迴歸樹模型對新的數據預測185

參考文獻187


第三部分聚類算法

10K-Means190

10.1相似性的度量190

10.1.1閔可夫斯基距離191

10.1.2曼哈頓距離191

10.1.3歐氏距離191

10.2K-Means算法原理192

10.2.1K-Means算法的基本原理192

10.2.2K-Means算法步驟193

10.2.3K-Means算法與矩陣分解193

10.3K-Means算法實踐195

10.3.1導入數據196

10.3.2初始化聚類中心197

10.3.3聚類過程198

10.3.4最終的聚類結果199

10.4K-Means++算法200

10.4.1K-Means算法存在的問題200

10.4.2K-Means++算法的基本思路202

10.4.3K-Means++算法的過程和最終效果204

參考文獻205

11Mean Shift206

11.1Mean Shift嚮量206

11.2核函數207

11.3Mean Shift算法原理209

11.3.1引入核函數的Mean Shift嚮量209

11.3.2Mean Shift算法的基本原理210

11.4Mean Shift算法的解釋212

11.4.1概率密度梯度212

11.4.2Mean Shift嚮量的修正213

11.4.3Mean Shift算法流程213

11.5Mean Shift算法實踐217

11.5.1Mean Shift的主過程218

11.5.2Mean Shift的最終聚類結果219

參考文獻221

12DBSCAN222

12.1基於密度的聚類222

12.1.1基於距離的聚類算法存在的問題222

12.1.2基於密度的聚類算法225

12.2DBSCAN算法原理225

12.2.1DBSCAN算法的基本概念225

12.2.2DBSCAN算法原理227

12.2.3DBSCAN算法流程228

12.3DBSCAN算法實踐231

12.3.1DBSCAN算法的主要過程232

12.3.2Mean Shift的最終聚類結果234

參考文獻236

13Label Propagation237

13.1社區劃分237

13.1.1社區以及社區劃分237

13.1.2社區劃分的算法238

13.1.3社區劃分的評價標準239

13.2Label Propagation算法原理239

13.2.1Label Propagation算法的基本原理239

13.2.2標簽傳播240

13.2.3迭代的終止條件242

13.3Label Propagation算法過程244

13.4Label Propagation算法實踐244

13.4.1導入數據245

13.4.2社區的劃分246

13.4.3最終的結果247

參考文獻248


第四部分推薦算法

14協同過濾算法250

14.1推薦係統的概述250

14.1.1推薦係統250

14.1.2推薦問題的描述251

14.1.3推薦的常用方法251

14.2基於協同過濾的推薦252

14.2.1協同過濾算法概述252

14.2.2協同過濾算法的分類252

14.3相似度的度量方法253

14.3.1歐氏距離254

14.3.2皮爾遜相關係數(Pearson Correlation)254

14.3.3餘弦相似度254

14.4基於協同過濾的推薦算法256

14.4.1基於用戶的協同過濾算法256

14.4.2基於項的協同過濾算法258

14.5利用協同過濾算法進行推薦260

14.5.1導入用戶-商品數據260

14.5.2利用基於用戶的協同過濾算法進行推薦261

14.5.3利用基於項的協同過濾算法進行推薦262

參考文獻264

15基於矩陣分解的推薦算法265

15.1矩陣分解265

15.2基於矩陣分解的推薦算法266

15.2.1損失函數266

15.2.2損失函數的求解266

15.2.3加入正則項的損失函數即求解方法267

15.2.4預測269

15.3利用矩陣分解進行推薦270

15.3.1利用梯度下降對用戶商品矩陣分解和預測270

15.3.2最終的結果272

15.4非負矩陣分解273

15.4.1非負矩陣分解的形式化定義274

15.4.2損失函數274

15.4.3優化問題的求解274

15.5利用非負矩陣分解進行推薦277

15.5.1利用乘法規則進行分解和預測277

15.5.2最終的結果278

參考文獻279

16基於圖的推薦算法280

16.1二部圖與推薦算法280

16.1.1二部圖280

16.1.2由用戶商品矩陣到二部圖281

16.2PageRank算法282

16.2.1PageRank算法的概念282

16.2.2PageRank的兩個假設283

16.2.3PageRank的計算方法283

16.3PersonalRank算法285

16.3.1PersonalRank算法原理285

16.3.2PersonalRank算法的流程286

16.4利用PersonalRank算法進行推薦288

16.4.1利用PersonalRank算法進行推薦288

16.4.2最終的結果291

參考文獻291


第五部分深度學習

17AutoEncoder294

17.1多層神經網絡294

17.1.1三層神經網絡模型294

17.1.2由三層神經網絡到多層神經網絡295

17.2AutoEncoder模型296

17.2.1AutoEncoder模型結構296

17.2.2AutoEncoder的損失函數297

17.3降噪自編碼器Denoising AutoEncoder298

17.3.1Denoising AutoEncoder原理298

17.3.2Denoising AutoEncoder實現299

17.4利用Denoising AutoEncoders構建深度網絡302

17.4.1無監督的逐層訓練302

17.4.2有監督的微調303

17.5利用TensorFlow實現Stacked Denoising AutoEncoders306

17.5.1訓練Stacked Denoising AutoEncoders模型306

17.5.2訓練的過程307

參考文獻308

18捲積神經網絡309

18.1傳統神經網絡模型存在的問題309

18.2捲積神經網絡311

18.2.1捲積神經網絡中的核心概念311

18.2.2捲積神經網絡模型312

18.3捲積神經網絡的求解313

18.3.1捲積層(Convolution Layer)313

18.3.2下采樣層(Sub-Sampling Layer)316

18.3.3全連接層(Fully-Connected Layer)316

18.4利用TensorFlow實現CNN316

18.4.1CNN的實現316

18.4.2訓練CNN模型320

18.4.3訓練的過程321

參考文獻321


第六部分項目實踐

19微博精準推薦324

19.1精準推薦324

19.1.1精準推薦的項目背景324

19.1.2精準推薦的技術架構325

19.1.3離綫數據挖掘326

19.2基於用戶行為的挖掘327

19.2.1基於互動內容的興趣挖掘327

19.2.2基於與博主互動的興趣挖掘328

19.3基於相似用戶的挖掘329

19.3.1基於“@”人的相似用戶挖掘329

19.3.2基於社區的相似用戶挖掘329

19.3.3基於協同過濾的相似用戶挖掘331

19.4點擊率預估332

19.4.1點擊率預估的概念332

19.4.2點擊率預估的方法332

19.5各種數據技術的效果334

參考文獻335

附錄A336

附錄B341

前言/序言

推薦序

誌勇是我在新浪微博的同事,剛來的時候坐我的旁邊。記得當時誌勇喜歡把看過的論文的重點部分剪下來粘到自己的筆記本上,並用五顔六色的筆標注,後來還知道誌勇平時會寫博客來記錄自己在算法學習和實踐中的心得。由此可見,誌勇是一個非常認真且善於歸納總結的人。2016年誌勇告訴我他在寫這樣一本書的時候,我深以為然,感覺正確的人做瞭一件正確的事。

誌勇的書快完成的時候邀請我寫序,這對我絕對是個挑戰。幸運的是,書中的內容是我所熟悉的,仿佛是發生在自己身邊的事。寫作風格也和誌勇平時交流時一緻。所以,我可以從故事參與者的角度去介紹一下這本書。

說到機器學習算法,這兩年可謂蓬勃發展。AlphaGo戰勝世界圍棋冠軍李世石已經成瞭大傢茶餘飯後的談資,無人駕駛汽車是資本競相追逐的萬億級市場,這些都源於數據收集能力、計算能力的提升,以及智能設備的普及。機器學習也已經在我們身邊一些領域取得瞭成功,例如,現在已經獲得上億用戶使用的今日頭條。今日頭條通過抓取眾多媒體的資訊,利用機器學習算法推薦給用戶,從而做到瞭資訊量大、更新快、更加個性化。

作為一個互聯網從業者,更是感覺到機器學習算法已經融入到越來越多的産品和功能中。我曾經在一次交流中得知,某個應用為減少用戶輸入,用瞭一個團隊的力量做輸入選項的推薦。這在以前是不曾齣現過的,以前的網站更多的是增加功能,讓用戶選擇。現在更多的是推薦給用戶,幫助用戶選擇。這裏麵既有移動應用屏幕小、操作復雜的原因,也有互聯網公司越來越重視用戶體驗的原因。所以,在此要恭喜這本書的讀者,你們選擇瞭一個前途光明的行業。

機器學習算法比較典型的應用是推薦、廣告和搜索。我們利用協同過濾技術來推薦商品、利用邏輯迴歸技術來做點擊率的預測、利用分類技術來識彆“垃圾”網頁等。學好、用好每一種算法都很睏難,需要掌握背後的理論基礎,以及進行大量的實踐,否則就會浮於錶麵,模仿他人,不能根據自己的業務做齣閤理的選擇。

而市場上的書通常要麼隻是一些概要性質的介紹,要麼是偏嚮實戰,理論基礎介紹得比較少。本書是少有的兩者兼具的書,每一種算法都先介紹數學基礎,再用Python代碼做簡單版本的實現,並且算法之間循序漸進,層層深入,讀來如沐春風。

本書介紹瞭LR、FM、SVM、協同過濾、矩陣分解等推薦和廣告領域常用算法,有很強的實用性。深度學習更是近期主流互聯網公司研究的熱門領域。無論對機器學習的初學者還是已經具備一些項目經驗的人來說,這都是很好的讀本。希望本書對更多的人有益,也希望中國的“人工智能+”蓬勃發展。

新浪微博算法經理陶輝


前言

起源

在讀研究生期間,我就對機器學習算法萌生瞭很濃的興趣,並對機器學習中的常用算法進行瞭學習,利用MATLAB對每一個算法進行瞭實踐。在此過程中,每當遇到不懂的概念或者算法時,就會在網上查找相關的資料。也看到很多人在博客中分享算法的學習心得及算法的具體過程,其中有不少內容讓我受益匪淺,但是有的內容僅僅是算法的描述,缺少實踐的具體過程。

注意到這一點之後,我決定開始在博客中分享自己學習每一個機器學習算法的點點滴滴,為瞭讓更多的初學者能夠理解算法的具體過程並從中受益,我計劃從三個方麵齣發,第一是算法過程的簡單描述,第二是算法理論的詳細推導,第三是算法的具體實踐。2014年1月10日,我在CSDN上寫下瞭第一篇博客。當時涉及的方嚮主要是優化算法和簡單易學的機器學習算法。

隨著學習的深入,博客的內容越來越多,同時,在寫作過程中,博客的質量也在慢慢提高,這期間也是機器學習快速發展的階段,在行業內齣現瞭很多優秀的算法庫,如Java版本的weka、Python版本的sklearn,以及其他的一些開源程序,通過對這些算法庫的學習,我豐富瞭很多算法的知識,同時,我將學習到的心得記錄在簡單易學的機器學習算法中。工作之後,越發覺得這些基礎知識對於算法的理解很有幫助,積纍的這些算法學習材料成瞭我寶貴的財富。

2016年,電子工業齣版社博文視點的符隆美編輯聯係到我,詢問我是否有意嚮將這些博文匯總寫一本書。能夠寫一本書是很多人的夢想,我也不例外。於是在2016年9月,我開始瞭對本書的構思,從選擇算法開始,選擇齣使用較多的一些機器學習算法。在選擇好算法後,從算法原理和算法實現兩個方麵對算法進行描述,希望本書能夠在內容上既能照顧到初學者,又能使具有一定機器學習基礎的讀者從中受益。

在寫作的過程中,我重新查閱瞭資料,力求保證知識的準確性,同時,在實踐的環節中,我使用瞭目前比較流行的Python語言實現每一個算法,使得讀者能夠更容易理解算法的過程,在介紹深度學習的部分時,使用到瞭目前最熱門的TensorFlow框架。為瞭幫助讀者理解機器學習算法在實際工作中的具體應用,本書專門有一章介紹項目實踐的部分,綜閤前麵各種機器學習算法,介紹每一類算法在實際工作中的具體應用。

內容組織

本書開篇介紹機器學習的基本概念,包括監督學習、無監督學習和深度學習的基本概念。

第一部分介紹分類算法。分類算法是機器學習中最常用的算法。在分類算法中著重介紹Logistic迴歸、Softmax Regression、Factorization Machine、支持嚮量機、隨機森林和BP神經網絡等算法。

第二部分介紹迴歸算法。與分類算法不同的是,在迴歸算法中其目標值是連續的值,而在分類算法中,其目標值是離散的值。在迴歸算法中著重介紹綫性迴歸、嶺迴歸和CART樹迴歸。

第三部分介紹聚類算法。聚類是將具有某種相同屬性的數據聚成一個類彆。在聚類算法中著重介紹K-Means算法、Mean Shift算法、DBSCAN算法和Label Propagation算法。

第四部分介紹推薦算法。推薦算法是一類基於具體應用場景的算法的總稱。在推薦算法中著重介紹基於協同過濾的推薦、基於矩陣分解的推薦和基於圖的推薦。

第五部分介紹深度學習。深度學習是近年來研究最為火熱的方嚮。深度學習的網絡模型和算法有很多種,在本書中,主要介紹最基本的兩種算法:AutoEncoder和捲積神經網絡。

第六部分介紹以上這些算法在具體項目中的實踐。通過具體的例子,可以清晰地看到每一類算法的應用場景。

附錄介紹在實踐中使用到的Python語言、numpy庫及TensorFlow框架的具體使用方法。

小結

本書試圖從算法原理和實踐兩個方麵來介紹機器學習中的常用算法,對每一類機器學習算法,精心挑選瞭具有代錶性的算法,從理論齣發,並配以詳細的代碼,本書的所有示例代碼使用Python語言作為開發語言,讀者可以從https://github.com/ zhaozhiyong19890102/Python-Machine-Learning-Algorithm中下載本書的全部示例代碼。

由於時間倉促,書中難免存在錯誤,歡迎廣大讀者和專傢批評、指正,同時,歡迎大傢提供意見和反饋。本書作者的電子郵箱:zhaozhiyong1989@126.com。

緻謝

首先,我要感謝陶輝和孫永生這兩位良師益友,在本書的寫作過程中,為我提供瞭很多意見和建議,包括全書的組織架構。感謝陶輝抽齣寶貴的時間幫我寫序,感謝孫永生幫我檢查程序。

其次,我要感謝符隆美編輯和董雪編輯在寫作和審稿的過程中對我的鼓勵和悉心指導。

再次,我要感謝薑貴彬、易慧民、潘文彬,感謝他們能夠抽齣寶貴的時間幫本書寫推薦語,感謝他們在讀完本書後給齣的寶貴意見和建議。

然後,我要感謝July在本書的寫作過程中對本書提齣的寶貴意見,感謝張俊林、王斌在讀完本書初稿後對本書的指點。

最後,感謝我的親人和朋友,是你們的鼓勵纔使得本書能夠順利完成。

趙誌勇

2017年6月6日於北京



用戶評價

評分

還行,有算法有理論,不過還是得有基礎纔行,這書結構不錯,容易懂一點

評分

留著後麵看

評分

一般吧 感覺和預期的不太一樣 先看看吧

評分

挺好,挺不錯,很好,很OK

評分

挺好,挺不錯,很好,很OK

評分

這哪裏是入門,根本看不懂好嗎

評分

留著後麵看

評分

我為什麼喜歡在京東買東西,因為今天買明天就可以送到。我為什麼每個商品的評價都一樣,因為在京東買的東西太多太多瞭,導緻積纍瞭很多未評價的訂單,所以我統一用段話作為評價內容。京東購物這麼久,有買到很好的産品,也有買到比較坑的産品,如果我用這段話來評價,說明這款産品沒問題,至少85分以上,而比較垃圾的産品,我絕對不會偷懶到復製粘貼評價,我絕對會用心的差評,這樣其他消費者在購買的時候會作為參考,會影響該商品銷量,而商傢也會因此改進商品質量。

評分

好真好非常好,真的好好好好

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 windowsfront.com All Rights Reserved. 靜流書站 版權所有