چهار قدم یادگیری ماشینی با پایتون و پیکان پنجاه وهفت

paykan

این نوشته برای فارسی زبانانی است که می‌خواهند «یادگیری ماشینی» و «تحلیل داده‌ها» و مراحل کلی حل یک مساله را در غالب مثالی ساده مرور کنند و ممکن است هنوز تجربه‌ی تخصصی زیادی از مباحث ریاضی و برنامه‌نویسی لازم در این زمینه نداشته باشند. عده‌ی زیادی هم هستند که ممکن است راجع به یادگیری ماشین چیزهایی شنیده باشند و حدس می‌زنند این روش ها به همراه تکنولوژی‌های زیرساختی جدید در دنیای بزرگ دیجیتال داده‌ها‌ی امروز می‌تواند به رشد کسب و کار آن‌ها در آینده کمک کند. مرور کاربرد‌های قدرتمند تکنیک‌های  یادگیری ماشین و نتیجه‌های سریع و باکیفیت آن در غالب یک مثال ملموس می‌تواند کمکی به این افراد نیز باشد. مطالب می‌تواند به سایت دیوار و کسب و کار‌های مرتبط با این داده‌ها نیز کمک مستقیم بکند

امروز سایت کافه‌بازار «دیتاست»ی (مجموعه‌ای مرتب از داده‌ها) از آگهی‌های خرید و فروش در سایت دیوار را منتشر کرد. در این نوشته روی این دیتاست متمرکز خواهیم شد

  اولین قدم، دیتا : چی داریم؟

اولین قدم در هر مساله‌ی «تحلیل داده‌‌» این است که بررسی کنیم چه داده‌هایی داریم و سعی کنیم تا جایی که امکان دارد آن را از وجوه مختلف بررسی کنیم و بشناسیم. این مرحله در تمام مراحل بعدی علی‌الخصوص اینکه اصولا چه سوالی می‌توان پرسید و چه سوالی جالب\مهم است پرسیده شود و از طریق «تحلیل‌داده‌ها» و «یادگیری ماشینی» پاسخ داده شود، اهمیت ویژه‌ دارد. هر چقدر بیشتر روی این قسمت وقت بگذارید در قدم‌های بعدی راحت‌تر و با آگاهی ‌بیشتر حرکت خواهید کرد. ممکن است در مراحل بعدی حل مساله مجبور شوید دوباره و چند باره به این قدم برگردید. این اصلا غیر طبیعی نیست و در بسیاری موارد لازم است

این دیتاست حاوی اطلاعات نزدیک به یک ملیون آگهی خرید و فروش سایت دیوار است. در هر آگهی اطلاعات زیر بصورت مجزا و تک‌به‌تک قابل دسترسی می‌‌باشد

d8b4d984d8b4d8a7d987

بانگاهی کلی به این مجموعه و طبقه‌بندی های محصولات در آن به‌سرعت می‌توان توزیع نوع محصولاتی و اجناس و اقلامی که در مورد آن‌ها آگهی‌شده را بصورت زیر نمایش داد

pic1

همانطور که در نمودار بالا مشخص است بیشترین تعداد آگهی‌ها مربوط به «لوازم خانه»(شاخه‌ی مبل و وسائل تریینی منزل: رنگ سبز) و «وسايل نقلیه‌» (شاخه‌ی ماشین:‌رنگ خاکستری) میباشد

اگر به دسته بندی‌ جزيی تر آنها نیز نگاهی بیاندازیم (تصویر زیر) متوجه می‌شویم «ماشین‌های سبک» (رنگ قرمز در تصویر پایینی) تعداد زیادی از آگهی‌های این سایت را بخود اختصاص داده است (بیشتر از همه‌ی شاخه‌های دیگر) . ضمن آن‌که از جدول بالا نیز می‌دانیم اطلاعات بیشتری از این دسته آگهی جمع‌آوری شده است، مانند سال تولید (عمر خودرو) و مسافت طی شده (کیلومتر، مایلج). بنابراین بعنوان مثال روی این دسته از آگهی‌ها متمرکز می‌شویم

pic2

قدم اول را در اینجا متوقف می‌کنیم اما همانطور که اشاره شد این مرحله، مرحله‌ی بسیار مهمی است و جای کنکاش بسیار بیشتری دارد (همانند همه‌ی مراحل بعدی)ر

قدم دوم: مساله: چی‌ می‌خواهیم؟

بعد از اینکه داده‌هاای که در دسترس داریم را شناختیم و تا حدودی مطالعه کردیم نوبت به آن می‌رسد که بپرسیم چه می‌خواهیم؟ و به‌ دنبال پاسخ دادن به ‌چه پرسش یا تولید کردن چه سرویسی و در جهت چه نیازی هستیم. معمولا حتی با داشتن داده‌هایی محدود مانند مثال داده‌های این یادداشت (آگهی‌های سایت دیوار)، سوال‌های بیشماری از تحلیل های توصیفی (اینکه چه اتفاقی افتاده؟) گرفته تا واکاوی (اینکه چرا همچی اتفاقی افتاده؟) و پیش‌بینی (چه اتفاقی‌خواهد افتاد؟) و توصیه‌گر (چه‌ کار باید کرد؟) به ذهن می‌آید که اتفاقن برای هرکدام تعداد زیادی الگوریتم و روش‌های تحلیلی در یادگیری ماشین و تحلیل داده ‌ها وجود دارد که پرداختن به همه‌ی آن‌ها از حوصله‌ی این یادداشت خارج است. یک تمرین جالب حتی می‌تواند تحلیل توضیحات متنی آگهی‌ها از طریق روش‌های زبان‌های طبیعی و داده‌های ترتیبی باشد

در این مرحله باتوجه به شرایط، سوال‌های مهم تر را پیدا کرده و در اولویت قرار می‌دهیم. در این یادداشت من سعی کرده ام بدانم آیا میتوانم با داشتن مسافت طی‌ شده ماشین و سال تولید  و شهری که آگهی در آن منتشر شده، قیمت ماشین را با تقریب خوبی حدس بزنم یا خیر؟ اگر بتوان با داده‌های موجود مدلی ساخت که با آن بتوان  با  دقت قابل قبولی این قیمت ماشین را تخمین زد، این یکی از سرویس‌های داده‌محوری است که می‌تواند بلافاصله در سایت دیوار یا سایت‌های  مشابه جهت کمک به خریداران و فروشندگان جهت    قیمت گذاری استفاده شود💲💲💲ر

pic3.jpg

قدم سوم: حل مساله:‌چگونه مساله‌ را حل کنیم؟

 این مرحله قسمت اصلی کار و در عین حال یکی از سریع‌ترین مراحل کار است که معمولا از قسمت ها‌ی دیگر کمتر طول می‌کشد (گول عریض طویل تر بودن این بخش را نخورید!) و ممکن است برای بسیاری جای سوال و تعجب باشد. این به دلیل آن است که بسیاری از الگوریتم‌هایی که به حل مسا‌له‌ی ما کمک می‌کند به راحتی از طریق کتابخانه‌های زبان‌های برنامه‌نویسی مانند آر و پایتون در دسترس همگان است. اگر نیازی نداشته باشید  تغییر بنیادینی در این الگوریتم ها بدهید یا الگوریتم کاملا جدیدی را برنامه‌نویسی کنید، استفاده از این کتابخانه ها بسیار راحت و سریع است. نکته‌ی قابل تاکید این است که اگرچه این الگوریتم ها به آسانی و سرعت قابل دسترس و استفاده است اما بدون فهمیدن و درک عمیقی از چگونگی کارکرد آن‌ها، به احتمال خیلی زیاد به سرعت دچار مشکل خواهید شد. بنابراین نکته اساسی این است که مطمئن شوید منطق الگوریتمی که استفاده میکنید را فهمیده اید

برای این مساله‌ی خاص من از الگوریتم بسیار معروفی بنام «رندوم فارست» از یک کتابخانه‌ی پایتون بسیار معروف استفاده کرده ام. توجه کنید که من برای هر برند ماشین یک مدل جداگانه درست می‌کنم که منطقی هم بنظر می‌رسد. در مراحل زیر توضیح داده ام چگونه این کار را در پایتون انجام داده ام. برای دنبال کردن و اجرا کردن کد های زیر شما نیاز دارید پایتون را  روی ماشین خود نصب کنید که رایگان و بسیار راحت است. با یک جستجوی ساده در اینترنت می‌توانید مراحل کار را در بیاورید

یک- خواندن دیتا

دیتا در قالب‌های بیشماری می‌آید، اما در قالب این یادداشت با تقریبِ خوبی، همه‌ی آن‌ها را می‌توان به فرمت ساده‌ی یک (یا چندین) فایل به فرمت سی-اس-وی تبدیل کرد، مانند همین مثال که به همین فرمت است

masterData = pd.read_csv('./Downloads/divar_posts_dataset.csv', index_col=0)

دو- تمیزکاری دیتا

تعریف تابعی برای تبدیل «سال تولید» به فرمت عددی مطلوب

def get_numeric(x):
res = np.nan
if(x=='<1366'):
return(1350)
elif(not pd.isnull(x)):
res = int(float(x))
return(res)

تبدیل «سال تولید» و «مسافت طی‌شده» به فرمت عددی مطلوب
masterData.loc[:,'year'] = masterData.year.apply(get_numeric)
masterData.loc[:,'mileage'] = masterData.mileage.apply(get_numeric)

برش دیتا به اندازه‌ی مورد نیاز از داده‌ي اولیه:

در اینجا فقط آگهی های مربوط به ماشین های سبک و یک برند مورد نظر
carBrand = 'پژو ۲۰۶‍::Peugeot 206'
myBrand = masterData.loc[
(masterData.brand == carBrand) &
(masterData.cat2 == 'cars') &
(masterData.cat3 == 'light')
,:]


دور انداختن اطلاعات به درد نخور یا اشتباه
mask_price = myBrand.price.isin({1, 0,-1})
mask_mileage = myBrand.mileage.isin({1})
mask = mask_price | mask_mileage
myBrand = myBrand[~mask]

نگه داشتن تنها ستون‌هایی از دیتا که تصمیم داریم در مدل استفاده کنیم
myBrand = myBrand.loc[:,['year', 'mileage', 'price', 'city']]

سه- دستکاری کردن ستون‌های دیتا (فیچر انجینیرینگ)ر

در بسیاری موارد ممکن است بخواهید یا لازم باشد تغییراتی در شکل داده‌های ورودی به مدلی که می‌خواهید بسازید و استفاده کنید  انجام دهید یا حتی آنها را با هم به شکل خاصی ترکیب کنید و ستون‌های جدیدی بسازید که قبلا وجود نداشت. در این مثال چون من  می‌خواهم از تابعی استفاده کنم که ورودی به شکل کتگوریکال (غیرعددی) نمی‌پذیرد از ترفند معروفی استفاده می‌کنم که برای هر شهر (که طبیعتا متغیر غیرعددی است) ستون جدیدی می‌سازد و اگر آگهی در آن شهر بود برای ستونِ آن شهر مقدار عددی غیر صفر قرار می‌دهد:

 صدا کردن تابعی که دستورالعملی که در بالا توضیح داده شد را اجرا می‌کند
from sklearn.preprocessing import LabelBinarizer

lb_style = LabelBinarizer()
lb_results = lb_style.fit_transform(myBrand["city"])
cityCats = pd.DataFrame(lb_results, columns=lb_style.classes_)

چسباندن ستون‌های جدید به ستون‌های قدیمی
myBrand = pd.merge(myBrand, cityCats, on = myBrand.index)

چهار- دسته بندی دیتا به دو دسته‌ی: یادگیری و آزمایش

در این مرحله داده ها را بصورت تصادفی به دو دسته‌ تقسیم میکنم، یکی دسته‌ ی بزرگتر (معمولن حدود هفتاد تا هشتاد درصد از کل داده‌های موجود) برای استفاده در یادگیری ماشین و دیگری قسمت کوچتری (بیست تا سی درصد باقی‌مانده) را که مدل با آن آموزش ندیده و بنابراین هرگز ندیده و داده‌ی تازه محسوب می‌شود به منظور آزمایش و تعین دقت مدل آموزش داده شده در شرایط جدید

# Import train_test_split function
from sklearn.model_selection import train_test_split

جدا کرده ستون‌های ورودی و ستون خروجی  یعنی آن ستونی که قرار است آن را تخمین بزنیم که در این مثال قیمت خودرو است

X=myBrand[list(set(myBrand.columns) - {'price', 'city', 'key_0'})] # Features
y=myBrand['price'] # Labels

# Split dataset into training set and test set
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3) # 70% training and 30% test

پنج- اجرا کردن الگوریتم یادگیری ماشینی

در اینجا الگوریتم معروف رندوم فارست با پارامتر‌های پیش‌فرض
from sklearn.ensemble import RandomForestRegressor
rf = RandomForestRegressor(n_estimators=500, oob_score=True, random_state=0)
rf.fit(X_train, y_train)

در این مرحله مدل ما آماده است! ورودی این مدل همانطور که دیدیم «مسافت طی شده» و «سال تولید» و «شهر انتشار آگهی» است و خروجی مدل «قیمت تخمینی خودرو» است. جدول زیرچند نمونه از تخمین قیمت خودرو پژو ۲۰۶ توسط این مدل را نشان می‌دهد

نوع خودرو سال‌تولید مسافت‌طی‌شده شهر قیمت تخمینی به میلیون تومان
پژو ۲۰۶ ۱۳۸۵ ۲۲۰,۰۰۰ تهران ۱۶.۱
پژو ۲۰۶ ۱۳۸۵ ۱۲۰,۰۰۰ تهران ۱۸.۷
پژو ۲۰۶ ۱۳۹۰ ۱۲۰,۰۰۰ تهران ۲۵.۶
پژو ۲۰۶ ۱۳۹۰ ۱۲۰,۰۰۰ شیراز ۲۴.۶

توجه کنید که قیمت های تخمینی بالا برای مقایسه با داده‌های خارج از این دیتاست علی‌الخصوص برای مقایسه قیمت روزخودرو  دربازار، مقایسه‌ی مناسبی نیست به علت آنکه قیمت خودرو در طی‌سال گذشته تغییرات عمده‌داشته است که به دلیل آن‌که در این دیتاست تاریخ و سال آگهی‌ها دردسترس نیست، این مورد قابل تمایز و تصحیح نیست

قدم چهارم- آزمایش و اعتبارسنجی مدل

درست است که ما مدل را در مرحله‌ی قبل ساختیم و الان مدلی داریم که میتوانیم قیمت خودرو را تخمین بزنیم، اما نمی‌دانیم این مدل تا چه اندازه دقیق و بنابراین تا چه اندازه قابل اعتماد است. آیا این مدل، مدل خوبی است، یا خیر؟ و اگر خوب است، چقدر خوب است؟ . برای این کار از دسته‌ی کوچک تر داده‌ها که قبلا آماده کردیم (ولی تا اینجا استفاده نکردیم) کمک می‌گیریم. به این ترتیب که ورودی های آن دسته را به مدل میدهیم (خروجی را که قیمت باشد پیش خودمان نگه می‌داریم و به مدل نشان نمی‌دهیم، بنابراین مدل هیچ اطلاع قبلی از قیمت این خودروهای جدیدی که تا بحال ندیده ندارد) و از مدل میخواهیم که برای همه‌ی خودرو های موجود در دسته‌ی آزمایش قیمتی پیش‌بینی کند، سپس نتیجه را با قیمت‌های واقعی‌ای که از قبل می‌دانیم مقایسه می‌کنیم

pejo.png

نتیجه برای مثال بالا به شکل زیراست. پیش‌بینی‌های مدلی که ساختیم با قیمت‌های واقعی‌ که در سایت آگهی شده بیشتر از ۸۵ درصد همبستگی دارد که عدد نسبتا بالایی است. برای بازسازی نتایج این مرحله میتوانید کد زیر را اجرا کنید

from sklearn.metrics import r2_score
from scipy.stats import spearmanr, pearsonr
predicted_train = rf.predict(X_train)
predicted_test = rf.predict(X_test)
test_score = r2_score(y_test, predicted_test)
spearman = spearmanr(y_test, predicted_test)
pearson = pearsonr(y_test, predicted_test)
print(f'Out-of-bag R-2 score estimate: {rf.oob_score_:>5.3}')
print(f'Test data R-2 score: {test_score:>5.3}')
print(f'Test data Spearman correlation: {spearman[0]:.3}')
print(f'Test data Pearson correlation: {pearson[0]:.3}')

در نمودار زیر می‌توانید میزان اهمیت هریک از پارامتر‌هایی که در مدلمان استفاده کردیم را نیز ببینید. همانطور که مشخص است فاکتور اصلی در نرخ خودروها «سال تولید» و پس از آن «مسافت طی شده یا همان مایلج» است. در ضمن اینکه شهر محل انتشار آگهی (شهر محل معامله) نقش بسیار تعین‌کننده‌ای در قیمت خودرو ندارد

impo_pejo2016

   توجه داشته باشید مدل بالا را برای پژو ۲۰۶ ساختیم، که دقت نسبتا خوبی هم داشت. در زیر نمودار همبستگی مشابه آنچه برای پژو ۲۰۶ توضیح داده شد به ترتیب برای پیکان و پراید صندوقدار و پراید هاچ بک را ببنید.

پیکان هنوز ماشین سختی هست برای ! :))) تخمین قیمت، ظاهرا

peykansandoghhback

داده‌ها از: کافه‌بازار

 smirshekari:تماس

 

Advertisements
This entry was posted in Programing and tagged , , , . Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s