The Game of Thrones: how Sa’di sees it…

pedestrians-400811_1920.jpg

 

:بر طاق ایوان فریدون نبشته بود

جهان ای برادر نماند به کس

دل اندر جهان آفرین بند و بس

مکن تکیه بر ملک دنیا و پشت

که بسیار کس چون تو پرورد و کشت

چو آهنگ رفتن کند جان پاک

چه بر تخت مردن چه بر روی خاک

Translation from Farsi:

Hey Bro! The world is not gonna stay with anybody… Give your heart only to the creator of this world and nobody else…

Don’t rely neither on your wealth nor ancestry… Simply because this world raised billions like you and killed them all already…

When your sweet life starts to come to its end, it doesn’t matter if you are on a throne or on the ground…

Sa’di, Golestan, Section I

 

Advertisements
Posted in Daily Notes | Tagged , , , , | Leave a comment

چهار قدم یادگیری ماشینی با پایتون و پیکان پنجاه وهفت

paykan

این نوشته برای فارسی زبانانی است که می‌خواهند «یادگیری ماشینی» و «تحلیل داده‌ها» و مراحل کلی حل یک مساله را در غالب مثالی ساده مرور کنند و ممکن است هنوز تجربه‌ی تخصصی زیادی از مباحث ریاضی و برنامه‌نویسی لازم در این زمینه نداشته باشند. عده‌ی زیادی هم هستند که ممکن است راجع به یادگیری ماشین چیزهایی شنیده باشند و حدس می‌زنند این روش ها به همراه تکنولوژی‌های زیرساختی جدید در دنیای بزرگ دیجیتال داده‌ها‌ی امروز می‌تواند به رشد کسب و کار آن‌ها در آینده کمک کند. مرور کاربرد‌های قدرتمند تکنیک‌های  یادگیری ماشین و نتیجه‌های سریع و باکیفیت آن در غالب یک مثال ملموس می‌تواند کمکی به این افراد نیز باشد. مطالب می‌تواند به سایت دیوار و کسب و کار‌های مرتبط با این داده‌ها نیز کمک مستقیم بکند

امروز سایت کافه‌بازار «دیتاست»ی (مجموعه‌ای مرتب از داده‌ها) از آگهی‌های خرید و فروش در سایت دیوار را منتشر کرد. در این نوشته روی این دیتاست متمرکز خواهیم شد

  اولین قدم، دیتا : چی داریم؟

اولین قدم در هر مساله‌ی «تحلیل داده‌‌» این است که بررسی کنیم چه داده‌هایی داریم و سعی کنیم تا جایی که امکان دارد آن را از وجوه مختلف بررسی کنیم و بشناسیم. این مرحله در تمام مراحل بعدی علی‌الخصوص اینکه اصولا چه سوالی می‌توان پرسید و چه سوالی جالب\مهم است پرسیده شود و از طریق «تحلیل‌داده‌ها» و «یادگیری ماشینی» پاسخ داده شود، اهمیت ویژه‌ دارد. هر چقدر بیشتر روی این قسمت وقت بگذارید در قدم‌های بعدی راحت‌تر و با آگاهی ‌بیشتر حرکت خواهید کرد. ممکن است در مراحل بعدی حل مساله مجبور شوید دوباره و چند باره به این قدم برگردید. این اصلا غیر طبیعی نیست و در بسیاری موارد لازم است

این دیتاست حاوی اطلاعات نزدیک به یک ملیون آگهی خرید و فروش سایت دیوار است. در هر آگهی اطلاعات زیر بصورت مجزا و تک‌به‌تک قابل دسترسی می‌‌باشد

d8b4d984d8b4d8a7d987

بانگاهی کلی به این مجموعه و طبقه‌بندی های محصولات در آن به‌سرعت می‌توان توزیع نوع محصولاتی و اجناس و اقلامی که در مورد آن‌ها آگهی‌شده را بصورت زیر نمایش داد

pic1

همانطور که در نمودار بالا مشخص است بیشترین تعداد آگهی‌ها مربوط به «لوازم خانه»(شاخه‌ی مبل و وسائل تریینی منزل: رنگ سبز) و «وسايل نقلیه‌» (شاخه‌ی ماشین:‌رنگ خاکستری) میباشد

اگر به دسته بندی‌ جزيی تر آنها نیز نگاهی بیاندازیم (تصویر زیر) متوجه می‌شویم «ماشین‌های سبک» (رنگ قرمز در تصویر پایینی) تعداد زیادی از آگهی‌های این سایت را بخود اختصاص داده است (بیشتر از همه‌ی شاخه‌های دیگر) . ضمن آن‌که از جدول بالا نیز می‌دانیم اطلاعات بیشتری از این دسته آگهی جمع‌آوری شده است، مانند سال تولید (عمر خودرو) و مسافت طی شده (کیلومتر، مایلج). بنابراین بعنوان مثال روی این دسته از آگهی‌ها متمرکز می‌شویم

pic2

قدم اول را در اینجا متوقف می‌کنیم اما همانطور که اشاره شد این مرحله، مرحله‌ی بسیار مهمی است و جای کنکاش بسیار بیشتری دارد (همانند همه‌ی مراحل بعدی)ر

قدم دوم: مساله: چی‌ می‌خواهیم؟

بعد از اینکه داده‌هاای که در دسترس داریم را شناختیم و تا حدودی مطالعه کردیم نوبت به آن می‌رسد که بپرسیم چه می‌خواهیم؟ و به‌ دنبال پاسخ دادن به ‌چه پرسش یا تولید کردن چه سرویسی و در جهت چه نیازی هستیم. معمولا حتی با داشتن داده‌هایی محدود مانند مثال داده‌های این یادداشت (آگهی‌های سایت دیوار)، سوال‌های بیشماری از تحلیل های توصیفی (اینکه چه اتفاقی افتاده؟) گرفته تا واکاوی (اینکه چرا همچی اتفاقی افتاده؟) و پیش‌بینی (چه اتفاقی‌خواهد افتاد؟) و توصیه‌گر (چه‌ کار باید کرد؟) به ذهن می‌آید که اتفاقن برای هرکدام تعداد زیادی الگوریتم و روش‌های تحلیلی در یادگیری ماشین و تحلیل داده ‌ها وجود دارد که پرداختن به همه‌ی آن‌ها از حوصله‌ی این یادداشت خارج است. یک تمرین جالب حتی می‌تواند تحلیل توضیحات متنی آگهی‌ها از طریق روش‌های زبان‌های طبیعی و داده‌های ترتیبی باشد

در این مرحله باتوجه به شرایط، سوال‌های مهم تر را پیدا کرده و در اولویت قرار می‌دهیم. در این یادداشت من سعی کرده ام بدانم آیا میتوانم با داشتن مسافت طی‌ شده ماشین و سال تولید  و شهری که آگهی در آن منتشر شده، قیمت ماشین را با تقریب خوبی حدس بزنم یا خیر؟ اگر بتوان با داده‌های موجود مدلی ساخت که با آن بتوان  با  دقت قابل قبولی این قیمت ماشین را تخمین زد، این یکی از سرویس‌های داده‌محوری است که می‌تواند بلافاصله در سایت دیوار یا سایت‌های  مشابه جهت کمک به خریداران و فروشندگان جهت    قیمت گذاری استفاده شود💲💲💲ر

pic3.jpg

قدم سوم: حل مساله:‌چگونه مساله‌ را حل کنیم؟

 این مرحله قسمت اصلی کار و در عین حال یکی از سریع‌ترین مراحل کار است که معمولا از قسمت ها‌ی دیگر کمتر طول می‌کشد (گول عریض طویل تر بودن این بخش را نخورید!) و ممکن است برای بسیاری جای سوال و تعجب باشد. این به دلیل آن است که بسیاری از الگوریتم‌هایی که به حل مسا‌له‌ی ما کمک می‌کند به راحتی از طریق کتابخانه‌های زبان‌های برنامه‌نویسی مانند آر و پایتون در دسترس همگان است. اگر نیازی نداشته باشید  تغییر بنیادینی در این الگوریتم ها بدهید یا الگوریتم کاملا جدیدی را برنامه‌نویسی کنید، استفاده از این کتابخانه ها بسیار راحت و سریع است. نکته‌ی قابل تاکید این است که اگرچه این الگوریتم ها به آسانی و سرعت قابل دسترس و استفاده است اما بدون فهمیدن و درک عمیقی از چگونگی کارکرد آن‌ها، به احتمال خیلی زیاد به سرعت دچار مشکل خواهید شد. بنابراین نکته اساسی این است که مطمئن شوید منطق الگوریتمی که استفاده میکنید را فهمیده اید

برای این مساله‌ی خاص من از الگوریتم بسیار معروفی بنام «رندوم فارست» از یک کتابخانه‌ی پایتون بسیار معروف استفاده کرده ام. توجه کنید که من برای هر برند ماشین یک مدل جداگانه درست می‌کنم که منطقی هم بنظر می‌رسد. در مراحل زیر توضیح داده ام چگونه این کار را در پایتون انجام داده ام. برای دنبال کردن و اجرا کردن کد های زیر شما نیاز دارید پایتون را  روی ماشین خود نصب کنید که رایگان و بسیار راحت است. با یک جستجوی ساده در اینترنت می‌توانید مراحل کار را در بیاورید

یک- خواندن دیتا

دیتا در قالب‌های بیشماری می‌آید، اما در قالب این یادداشت با تقریبِ خوبی، همه‌ی آن‌ها را می‌توان به فرمت ساده‌ی یک (یا چندین) فایل به فرمت سی-اس-وی تبدیل کرد، مانند همین مثال که به همین فرمت است

masterData = pd.read_csv('./Downloads/divar_posts_dataset.csv', index_col=0)

دو- تمیزکاری دیتا

تعریف تابعی برای تبدیل «سال تولید» به فرمت عددی مطلوب

def get_numeric(x):
res = np.nan
if(x=='<1366'):
return(1350)
elif(not pd.isnull(x)):
res = int(float(x))
return(res)

تبدیل «سال تولید» و «مسافت طی‌شده» به فرمت عددی مطلوب
masterData.loc[:,'year'] = masterData.year.apply(get_numeric)
masterData.loc[:,'mileage'] = masterData.mileage.apply(get_numeric)

برش دیتا به اندازه‌ی مورد نیاز از داده‌ي اولیه:

در اینجا فقط آگهی های مربوط به ماشین های سبک و یک برند مورد نظر
carBrand = 'پژو ۲۰۶‍::Peugeot 206'
myBrand = masterData.loc[
(masterData.brand == carBrand) &
(masterData.cat2 == 'cars') &
(masterData.cat3 == 'light')
,:]


دور انداختن اطلاعات به درد نخور یا اشتباه
mask_price = myBrand.price.isin({1, 0,-1})
mask_mileage = myBrand.mileage.isin({1})
mask = mask_price | mask_mileage
myBrand = myBrand[~mask]

نگه داشتن تنها ستون‌هایی از دیتا که تصمیم داریم در مدل استفاده کنیم
myBrand = myBrand.loc[:,['year', 'mileage', 'price', 'city']]

سه- دستکاری کردن ستون‌های دیتا (فیچر انجینیرینگ)ر

در بسیاری موارد ممکن است بخواهید یا لازم باشد تغییراتی در شکل داده‌های ورودی به مدلی که می‌خواهید بسازید و استفاده کنید  انجام دهید یا حتی آنها را با هم به شکل خاصی ترکیب کنید و ستون‌های جدیدی بسازید که قبلا وجود نداشت. در این مثال چون من  می‌خواهم از تابعی استفاده کنم که ورودی به شکل کتگوریکال (غیرعددی) نمی‌پذیرد از ترفند معروفی استفاده می‌کنم که برای هر شهر (که طبیعتا متغیر غیرعددی است) ستون جدیدی می‌سازد و اگر آگهی در آن شهر بود برای ستونِ آن شهر مقدار عددی غیر صفر قرار می‌دهد:

 صدا کردن تابعی که دستورالعملی که در بالا توضیح داده شد را اجرا می‌کند
from sklearn.preprocessing import LabelBinarizer

lb_style = LabelBinarizer()
lb_results = lb_style.fit_transform(myBrand["city"])
cityCats = pd.DataFrame(lb_results, columns=lb_style.classes_)

چسباندن ستون‌های جدید به ستون‌های قدیمی
myBrand = pd.merge(myBrand, cityCats, on = myBrand.index)

چهار- دسته بندی دیتا به دو دسته‌ی: یادگیری و آزمایش

در این مرحله داده ها را بصورت تصادفی به دو دسته‌ تقسیم میکنم، یکی دسته‌ ی بزرگتر (معمولن حدود هفتاد تا هشتاد درصد از کل داده‌های موجود) برای استفاده در یادگیری ماشین و دیگری قسمت کوچتری (بیست تا سی درصد باقی‌مانده) را که مدل با آن آموزش ندیده و بنابراین هرگز ندیده و داده‌ی تازه محسوب می‌شود به منظور آزمایش و تعین دقت مدل آموزش داده شده در شرایط جدید

# Import train_test_split function
from sklearn.model_selection import train_test_split

جدا کرده ستون‌های ورودی و ستون خروجی  یعنی آن ستونی که قرار است آن را تخمین بزنیم که در این مثال قیمت خودرو است

X=myBrand[list(set(myBrand.columns) - {'price', 'city', 'key_0'})] # Features
y=myBrand['price'] # Labels

# Split dataset into training set and test set
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3) # 70% training and 30% test

پنج- اجرا کردن الگوریتم یادگیری ماشینی

در اینجا الگوریتم معروف رندوم فارست با پارامتر‌های پیش‌فرض
from sklearn.ensemble import RandomForestRegressor
rf = RandomForestRegressor(n_estimators=500, oob_score=True, random_state=0)
rf.fit(X_train, y_train)

در این مرحله مدل ما آماده است! ورودی این مدل همانطور که دیدیم «مسافت طی شده» و «سال تولید» و «شهر انتشار آگهی» است و خروجی مدل «قیمت تخمینی خودرو» است. جدول زیرچند نمونه از تخمین قیمت خودرو پژو ۲۰۶ توسط این مدل را نشان می‌دهد

نوع خودرو سال‌تولید مسافت‌طی‌شده شهر قیمت تخمینی به میلیون تومان
پژو ۲۰۶ ۱۳۸۵ ۲۲۰,۰۰۰ تهران ۱۶.۱
پژو ۲۰۶ ۱۳۸۵ ۱۲۰,۰۰۰ تهران ۱۸.۷
پژو ۲۰۶ ۱۳۹۰ ۱۲۰,۰۰۰ تهران ۲۵.۶
پژو ۲۰۶ ۱۳۹۰ ۱۲۰,۰۰۰ شیراز ۲۴.۶

توجه کنید که قیمت های تخمینی بالا برای مقایسه با داده‌های خارج از این دیتاست علی‌الخصوص برای مقایسه قیمت روزخودرو  دربازار، مقایسه‌ی مناسبی نیست به علت آنکه قیمت خودرو در طی‌سال گذشته تغییرات عمده‌داشته است که به دلیل آن‌که در این دیتاست تاریخ و سال آگهی‌ها دردسترس نیست، این مورد قابل تمایز و تصحیح نیست

قدم چهارم- آزمایش و اعتبارسنجی مدل

درست است که ما مدل را در مرحله‌ی قبل ساختیم و الان مدلی داریم که میتوانیم قیمت خودرو را تخمین بزنیم، اما نمی‌دانیم این مدل تا چه اندازه دقیق و بنابراین تا چه اندازه قابل اعتماد است. آیا این مدل، مدل خوبی است، یا خیر؟ و اگر خوب است، چقدر خوب است؟ . برای این کار از دسته‌ی کوچک تر داده‌ها که قبلا آماده کردیم (ولی تا اینجا استفاده نکردیم) کمک می‌گیریم. به این ترتیب که ورودی های آن دسته را به مدل میدهیم (خروجی را که قیمت باشد پیش خودمان نگه می‌داریم و به مدل نشان نمی‌دهیم، بنابراین مدل هیچ اطلاع قبلی از قیمت این خودروهای جدیدی که تا بحال ندیده ندارد) و از مدل میخواهیم که برای همه‌ی خودرو های موجود در دسته‌ی آزمایش قیمتی پیش‌بینی کند، سپس نتیجه را با قیمت‌های واقعی‌ای که از قبل می‌دانیم مقایسه می‌کنیم

pejo.png

نتیجه برای مثال بالا به شکل زیراست. پیش‌بینی‌های مدلی که ساختیم با قیمت‌های واقعی‌ که در سایت آگهی شده بیشتر از ۸۵ درصد همبستگی دارد که عدد نسبتا بالایی است. برای بازسازی نتایج این مرحله میتوانید کد زیر را اجرا کنید

from sklearn.metrics import r2_score
from scipy.stats import spearmanr, pearsonr
predicted_train = rf.predict(X_train)
predicted_test = rf.predict(X_test)
test_score = r2_score(y_test, predicted_test)
spearman = spearmanr(y_test, predicted_test)
pearson = pearsonr(y_test, predicted_test)
print(f'Out-of-bag R-2 score estimate: {rf.oob_score_:>5.3}')
print(f'Test data R-2 score: {test_score:>5.3}')
print(f'Test data Spearman correlation: {spearman[0]:.3}')
print(f'Test data Pearson correlation: {pearson[0]:.3}')

در نمودار زیر می‌توانید میزان اهمیت هریک از پارامتر‌هایی که در مدلمان استفاده کردیم را نیز ببینید. همانطور که مشخص است فاکتور اصلی در نرخ خودروها «سال تولید» و پس از آن «مسافت طی شده یا همان مایلج» است. در ضمن اینکه شهر محل انتشار آگهی (شهر محل معامله) نقش بسیار تعین‌کننده‌ای در قیمت خودرو ندارد

impo_pejo2016

   توجه داشته باشید مدل بالا را برای پژو ۲۰۶ ساختیم، که دقت نسبتا خوبی هم داشت. در زیر نمودار همبستگی مشابه آنچه برای پژو ۲۰۶ توضیح داده شد به ترتیب برای پیکان و پراید صندوقدار و پراید هاچ بک را ببنید.

پیکان هنوز ماشین سختی هست برای ! :))) تخمین قیمت، ظاهرا

peykansandoghhback

Continue reading

Posted in Programing | Tagged , , , | Leave a comment

How to Cut Your Wood Perfectly

Do you know what is the best way to cut your wood board to make a box planter? I know a way. And it was quite fun to figure that out.

I needed a relatively large planter. The wooden box planters look very nice to me. They don’t come inexpensive though, +$100 for the size I needed. I had a hand saw. I decided to cut some woods and make my own as a DIY project.

I picked up a couple of lumbers from my local hardware store. The question was what are the perfect cuts? I wanted to cut my wood boards such that I use all my raw material to the product with minimum number of cuts.

The plan was simple: make a wooden box planter from a lumber with the width of “w”, length of “L”, and the depth of “d”. You can see the schematic of the “input” and “output” of this problem in the image below: (a) Lumber, (b) Box Planter, both from top view.

Slide1.jpg

The only unknown size on the schematic above is “X”. It is straightforward to write that in terms of other known sizes as:

X = (L – 2 * (w + d)) / 3

Below image demonstrates the perfect cutting lines on your lumber to make one complete box planter out of a single wooden board with dimensions: L, w, d.

Slide2.jpg

Posted in Daily Notes, Efficient City, Melancholia | Tagged , , , , | Leave a comment

How Much Mass-Sharing Is Actually Useful?

Over the past few decades, social media has come to a new level via the vast adaptation of scale sharing platforms like Twitter and Facebook. Year after year, the global penetration index of internet and social media have been both constantly increasing and today humans are engaged in social media more than ever before.

As one of the possible metrics, below graphs show the growth of active users for two of the most popular social media platforms over the past several years. It is interesting to learn that people have got increasingly engaged into these platforms over time, but to me it is more interesting and meaningful to ask:

how much value this engagement has brought us as a community in a higher level?

There is no doubt that information sharing has reached to a new level in terms of its fast speed and large scale. The new technology helps the national and global societies to be able to be much more informed about things which are happening around in a very short period of time. This certainly makes a huge difference in many respects, specially in some particular areas such as emergency announcements and news. Although social media can make the flow of information and knowledge, we should keep in mind that it does not design to create information/knowledge.

The shared materials via social media platforms can certainly spread fast and far. Therefore provide the opportunity to educate and get educated about a vast majority of topics through connecting many people. However, this significant amount of new power in our ability for instant sharing with a large audience does neither makes us necessary more innovative nor creative in thing we don’t know yet and/or trying to discover. Sharing does not bring any innovation value by its nature.

In addition, such dynamics in a fast-flow and large-scale system may even cause decreasing innovation and the chance of new ideas to get born in several ways. This effect can happen because of a few reasons mainly including:

  1. Main Stream Bias, in which the new audience always start thinking about the subject with a bias influenced by the main stream that can lead to false results. In the best case scenario, this takes lots of energy to ignore or get rid of the default starting bias, in case the required awareness is present. As a result less people think new innovative ways and more people follow and eventually get used to specific broadly shared ways. On top of that, because of the main stream bias, it can be extremely difficult to give push start visibility to new ideas and the alternatives in such mass-share platforms.
  2. Unmatched Assumptions, which can come in two main classes: (a) too generic, or (b) too specific. In many cases, the shared materials in social media are under some very specific or very generic assumptions. These assumptions may be similar but not exactly the conditions to the specific problems we are either trying to solve or getting information required for an innovation, which makes them useless for that purpose. Using the unmatched assumptions can also lead to false results and wrong directions for any follow up new idea on top of that shared material.

Beside the main question at the beginning of this note above, there are also a few more questions that I would like to point out that interest me the most including the quantitative data-driven metrics for:

  • Have we shared more/less stuff on social media over time? That would be interesting to see the graph showing the average number of tweets per day per user for the past recent years for top social media platforms.
  • Have social media helped us to get more creative and diverse on the topics we share/discuss over time? That would be interesting to come up with metrics to quantitatively identify and analyze the dynamics of the clusters of sharing topics on social media over time.

TBC…

Posted in Efficient City, Programing | Tagged , , , , | Leave a comment

فیزیک پیشه ای که دیتاساینتیست از آب درآمد

:فهرست مطالب

من کیستم و مخاطب این نوشته چه کسانی هستند؟ -
چرا این مطلب را می نویسم؟ -
از محیط دانشگاهی به صنعت -
دیتاساینس چیست و دیتاساینتیست کیست؟ -
(چه مهارت هایی مورد نیاز است؟ (منابع یادگیری -
سه مرحله تا دیتاساینتیست شدن -

 من کیستم و مخاطب این نوشته چه کسانی هستند؟

من یک دیتا ساینتیست با پیش زمینه فیزیک هستم. این مطلب را برای آن دسته از افرادی می نویسم که سابقه آکادمیک دارند و علاقه مند هستند در بخش صنعت به عنوان دیتا ساینتیست مشغول به کار شوند. اگرچه مخاطب این نوشته افراد دانشگاهی با مدارک عالی در حوزه های کمّی همچون فیزیک، آمار، ریاضیات و مهندسی هستند، افراد علاقه مند در سایر حوزه های مرتبط نیز ممکن است این مطلب را مفید بیابند

چرا این مطلب را می نویسم؟

به اعتقاد من همه افراد در هر جای دنیا باید بتوانند به اطلاعاتی که نشان می دهد چطور می توانند علاقه مندی های خود را دنبال کنند، دسترسی داشته باشند. تفاوت ها در میزان موفقیت افراد نباید به واسطه ی نبود اطلاعات باشد، بلکه می تواند به عنوان مثال به دلیل تفاوت ها در میزان خلاقیت، استراتژی و سخت کوشی آنها باشد

اگرچه بدیهی است که برای رسیدن به موفقیت فقط یک راه وجود ندارد، اما همیشه مشخص نیست راه و روش موفق به چه صورت است. این پرسش نه تنها برای خود من مطرح بوده، بلکه اغلب، پرسش های مشابهی نیز از بسیاری از همکاران و دانشجویان سال های پایین تر نیز گرفته ام. از آنجایی که خودم نتوانستم یک مطلب جامع و آموزنده در خصوص تغییر مسیر از محیط آکادمیک به دیتا ساینس در صنعت پیدا کنم، تصمیم گرفتم این مطلب را بنویسم و با علاقه مندان به اشتراک بگذارم

 از محیط دانشگاهی به صنعت

ژانویه ی سال ۲۰۱۵ که تازه کارم را به عنوان دیتا ساینتیست شروع کرده بودم، یکی از دوستان فیزیکدانم که دوره ی پسا دکترایش را در اروپا می گذراند، از من راجع به کارم پرسید و اینکه نظرم تا بحال راجع به آن چیست. او هم به دیتا ساینس علاقه مند بود و می خواست بیشتر در موردش اطلاعات کسب کند. اینکه برای دیتا ساینتیست شدن از کجا باید شروع کند، چه مهارت هایی نیاز دارد و کجا باید دنبال این پوزیشن بگردد. از آنجایی که او اولین نفری نبود که این سوال ها را از من می پرسید، تصمیم گرفتم در اینجا به این پرسش ها پاسخ دهم و به اختصار مسیری که خودم طی ۱۸ ماه طی کردم تا از یک محقق دوره پسا دکترا در محیط علمی به دیتا ساینس در محیط صنعت فناوری روی بیاورم را توضیح دهم. امیدوارم این مقاله برای افراد دیگر فارغ التحصیل در رشته های علوم و مهندسی که سوالات مشابهی دارند و قصد دارند دیتا ساینس را به عنوان شغل آینده ی خود انتخاب کنند نیز مفید باشد

به عنوان یک محقق سابق پسا دکترا و کسی که محققان پسا دکترای زیادی در دوران تحصیل و تحقیق خود ملاقات کرده، بر این باورم که اگرچه در یک روند حرفه ای موفق، پوزیشن پسا دکترا جای فوق العاده خوبی برای گذار است (گذار به یک پوزیشن ثابت در هیئت علمی دانشگاه ها یا شغل مناسبی در حوزه صنعت) اما الزاماً بهترین جا برای ماندن به مدت طولانی نیست. در زمان نه چندان دور، قصد تقریباً تمامی افرادی که مدرک دکترا و پسا دکترا در رشته های علوم داشتند، این بود که بعد از یک یا دو دوره ی پسا دکترا، استادان دانشگاه آینده شوند. این رویه طی یک دهه ی گذشته به دلایل مختلفی همچون نبود مشاغل دانشگاهی مناسب از یک سو و تقاضای رو به رشد حوزه ی صنعت برای جذب دارندگان دکترای علوم از سوی دیگر، تغییر قابل توجهی کرده است

phd_flow_uk

بنابراین، به دلایل مختلف (که برخی از آنها را می توانید اینجا ببینید) بسیاری از افرادی که دکترای علوم، مهندسی یا حتی رشته های دیگر دارند ممکن است محیط دانشگاهی را بهترین جا برای ماندن نبینند و در نتیجه نهایتاً تصمیم به ترک آن محیط بگیرند. در حقیقت تنها درصد بسیار کمی از دارندگان مدرک دکترا، یعنی پروفسورها، هستند که تمام سال های حرفه ای خود را در محیط دانشگاهی می مانند (به عنوان مثال نگاه کنید به نمودار بالا از این گزارش که در سال ۲۰۱۰ در انگلستان به چاپ رسیده است)

یکی از مسیر های حرفه ای معقول برای افراد دارای تحصیلات دانشگاهی در رشته های علوم و فناوری، انتخاب حوزه ی دیتا ساینس است، حوزه ای که به سرعت در حال رشد می باشد. ادامه ی این یادداشت بیشتر برای آن دسته از افرادی مفید است که دارند به انتخاب این مسیر فکر می کنند تا دیتا ساینتیست شوند. آنهایی که ممکن است بخواهند راجع به اینکه این رشته چیست، چگونه می توان برای آن آماده شد، و کجا می شود برای پیدا کردن بهترین موقعیت های شغلی جستجو کرد، بیشتر بدانند. در قسمت های بعدی سعی می کنم به این موارد بپردازم

 دیتا ساینس چیست و دیتا ساینتیست کیست؟

002b309

به دلیل ماهیت این رشته تعریف واحدی برای دیتا ساینس و دیتا ساینتیست وجود ندارد. تعاریف و توصیفات محدوده ی وسیعی را شامل می شود. اما تفسیر من این است

دیتا ساینتیست یک فرد حرفه ای و با مهارت با ذهنیت علمی است که از داده های قبلی و فعلی استفاده می کند تا پرسش های درست را بپرسد (و در نهایت به آنها پاسخ دهد) تا اینکه بتواند آگاهانه ترین تصمیمات آتی را در یک سازمان بگیرد.

نقل قول های مشهور زیادی از افراد ارشد این رشته برای تعریف دیتا ساینس وجود دارد. هرکدام از آنها یک جنبه را از یک منظر به خوبی توصیف می کند و همه ی آنها با هم می تواند توصیف خوبی از واقعیت مربوط به دیتا ساینس و دیتا ساینتیست ها به ما بدهد. در ادامه چند نقل قول مورد علاقه ی من در مورد اهمیت/تعریف دیتا/دیتا ساینس/دیتا ساینتیست را می خوانیم.

دیتا نفت جدید است؟ خیر. دیتا خاک جدید است. دیوید مک کندلوس

 دیتا ساینتیست ها درگیر جمع آوری دیتا و ماساژ دادن آن به یک فرم قابل انعطاف و قابل کنترل هستند، دیتا را وادار  می  کنند که داستانش را بگوید، و  آن داستان را به دیگران ارائه می دهند. — مایک لوکیدیس، نایب رئیس اورایلی

دیتا ساینتیست شخصی است که در آمار از هر مهندس نرم افزاری و در مهندسی نرم افزار از هر  آمارگری بهتري است.  جاش ویلز

تا سال ۲۰۱۸ ایالات متحده آمریکا کمبود ۱۹۰ هزار دیتا ساینتیست با مهارت و همچنین یک و نیم میلیون مدیر و تحلیل گر با توانایی به دست آوردن بینش قابل اقدام از سیل کلان داده ها را تجربه خوهد کرد.  مک کینزی ریپورت

این رشته ی جدید مورد تقاضا (دیتا ساینس) وعده تغییرات اساسی و انقلابی در صنایع از تجارت تا دولت، و از نظام درمانی تا محیط دانشگاهی را می دهدنیویورک تایمز

دیتا ساینتیست باید در علوم کاربردی اطلاعات داشته باشد با تجربه ای گسترده در صنعت و آموزش در علوم. ـــ خوآن اف سیا

و این هم جوک مورد علاقه ی من در مورد تعریف دیتا ساینتیست که کریس دیکسون در توییتر باز نشر کرده: «دیتا ساینتیست کارشناس آماری است که در سن فرانسیسکو زندگی می کند!» که تا حدودی هم واقعیت دارد

برای اینکه دید جامع تری نسبت به این رشته و کلان داده ها داشته باشید، پیشنهاد می کنم حتماً این پیام ویدیویی دو دقیقه ای از باراک اوباما، رئیس جمهور وقت آمریکا، در مورد دیتا ساینس در سال ۲۰۱۵ را تماشا کنید که در آن دی جی پاتیل را به عنوان اولین دیتا ساینتیست ارشد کاخ سفید معرفی می کند و پس از آن سخنرانی ۱۰ دقیقه ای شنیدنی از دی جی پاتیل و همچنین ویدیوی ۱۲ دقیقه ای از هیلاری میسون در سال ۲۰۱۲

(چه مهارت هایی مورد نیاز است؟ (منابع یادگیری

(به طور کلی مهارت هایی که برای شغل دیتا ساینتیست لازم است معمولاً در این سه طبقه قرار می گیرد (نمودار را ببینید

ریاضیات و آمار –

مهارت های برنامه نویسی و هک کردن –

دانش تخصصی در زمینه ی کاری –

 

spring_2014_azam_01

بسته به اینکه گرایش تحصیلی شما چیست، ممکن است نیاز داشته باشید روی تقویت مهارت های متفاوتی از لیست بالا تمرکز کنید. به عنوان مثال، دانش آموختگان دوره دکترای فیزیک نباید در بخش ریاضیات و آمار مشکل قابل توجهی داشته باشند. اما دو دسته دیگر، یعنی دانش تخصصی در زمینه ی کاری و مهارت های هک کردن (الگوریتم های یادگیری ماشین، مهارت های برنامه نویسی، ابزارهای پیشرفته ی نرم افزاری، غیره) مواردی هستند که باید بیشتر رویشان تمرکز کنند. فهرست دقیق و نسبتاً جامعی از مهارت هایی که برای دیتا ساینتیست شدن مورد نیاز است در این نمودار قابل دسترس است. این مقاله نیز در مورد مهارت های مورد نیاز این حوزه اطلاعات مفیدی می دهد

موضوعات و ابزار های بسیاری در گروه مهارت های هک کردن وجود دارد که می توانید در دوران آماده سازی خود را با آنها آشنا کنید. اما هیچ کسی نیست که همه ی آنها را کامل بداند و این مسئله اصلاً اشکالی ندارد. به نظر من مهم ترین مهارت ها در این گروه که تقاضای بالایی هم برایشان وجود دارد عبارتند از

:الگوریتم های یادگیری ماشین

Regression, Classification, Clustering, Recommender Systems, Neural Networks…

:زبان های برنامه نویسی

Python, R, SAS…

:ابزارهای کلان داده ها

Map Reduce Fundamentals, Hadoop, Spark, SQL…

:ابزارهای مصورسازی

D3.js, ggplot2, matplotlib…

من شخصاً زمانی به حوزه ی دیتا ساینس علاقه مند شدم که داشتم در دوره ی پسا دکترا به عنوان محقق در گروه تحلیل داده های  لایگو کار می کردم. در آن دوره این فرصت را داشتم که در حین کار با کلان داده های امواج گرانشی با تعدادی از ابزارها و تکنیک های تحلیل داده ها بیشتر آشنا شوم و با آنها کار کنم که در طول مسیر کمک زیادی به من کرد. اولین پروژه های دیتا ساینس را زمانی شروع کردم که یک دوره ی ۱۰ هفته ای یادگیری ماشین با اندرو-ان-جی از دانشگاه استنفورد گرفتم. دوره ی بسیار خوبی بود و باعث شد بعد از آن در دوره های دیگری نیز شرکت کنم و به دیتا ساینس به عنوان مسیر شغلی آینده ام فکر کنم. در ادامه نمایی از مسیری که من به سمت دیتا ساینس طی کردم را خواهید دید که مطمئناً تنها یکی از بیشمار راه های ممکنی است که وجود دارد

mypath_to_ds

:کتاب های درسی

از میان تمام کتاب های مفید موجود در زمینه ی آمار کاربردی و الگوریتم های یادگیری ماشین که برای دیتا ساینس بسیار ضروری هستند، من کتاب های زیر را توصیه می کنم که توسط ناشر هایشان آنلاین و به صورت رایگان نیز در دسترس است

  1. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. By Trevor Hastie, Robert Tibshirani, Jerome Friedman. [Download] (see the course: Statistical Learning)
  2. An Introduction to Statistical Learning with Applications in R. By Gareth James, Daniela Witten, Trevor Hastieand Robert Tibshirani [Download]
  3. Mining of Massive Datasets. By Jure Leskovec, Anand Rajaraman, Jeff Ullman. [Download] (see the course: Mining of Massive Data) 

:وبلاگ ها

تعداد وبلاگ های فعالی که به صورت منظم راجع به دیتا ساینس می نویسند رو به افزایش است. در ادامه به تعدادی از آنها که به نظرم جالب و مفید آمدند اشاره می کنم

نویسنده ی وبلاگ بالا به اختصار از نحوه ی گذارش از محیط دانشگاهی به دیتا ساینس می گوید. اگر کنجکاوید بدانید بعد از این نوشته چه می کند، این مصاحبه را که یک سال و نیم بعد با او انجام شده بخوانید

:دوره های آنلاین

دوره های آنلاین زیادی وجود دارد که ممکن است بخواهید در آنها شرکت کنید. بسیاری از آنها رایگان هستند و بسیاری دیگر نه. در ادامه من لیست شناخته شده ترین وبسایت های آموزشی را به همراه لینک برخی از دوره های مختص دیتا ساینس می آورم. دوره هایی که در این وب سایت ها ارائه می شود مسلماً تنها محدود به آنهایی که در لیست من آمده نمی شود. آنهایی که به نظرم از همه ی دوره هایی که من تا کنون گذرانده ام مفیدتر بودند را با سه ستاره [***] مشخص کرده ام که به نظرم بالاترین اولویت را دارند

  • from CourseraSeries on Data Science:
    • [***] Machine Learning [ده هفته، حجم کار بالا]
    • [***] Mining Massive Datasets [هفت هفته، حجم کار بالا]
    • [***] Deep Learning Specialization [پنج کلاس هر کدام دو تا چهار هفته، حجم کار بالا]
    • The Data Scientist’s Toolbox [چهارهفته، حجم کار متوسط]
    • R Programming [چهار هفته، حجم کار متوسط]
    • Getting and Cleaning Data [چهار هفته، حجم کار متوسط]
  • from EdXSeries on Data Analysis and Statistics:
    • Data Science and Machine Learning Essentials (AzurML) [پنج هفته، حجم کار متوسط]
  • from Stanford Online Laguna:
  • from UdacitySeries on Data Science:
    • Intro to Hadoop and MapReduce [شش هفته، حجم کار متوسط]
    • Data Visualization and D3.js [شش هفته، حجم کار متوسط]
  • from Data Camp:
    • [***] Kaggle R Tutorial on Machine Learning [یک ساعت، حجم کار پایین]

 

:دوره های فشرده (Bootcamps)

Insight Data Science Fellows Program:

دوره ی فشرده ی رایگان ۶ هفته ای دیتا ساینس در شهر نیویورک. اتمام دوره ی دکترا یا نزدیک بودن زمان فارغ التحصیلی فرد شرکت کننده لازم است

The Data Incubator:

دوره ی فشرده ی ۶-۸ هفته ای رایگان دیتا ساینس در نیویورک و واشنگتن دی

Microsoft Research Data Science Summer School:

دوره ی فشرده ی ۸ هفته ای رایگان دیتا ساینس در نیویورک

دقت داشته باشید که از آنجایی که این دوره های فشرده به صورت رایگان ارائه می شوند و از سطح کیفی بالایی برخوردار هستند و میزان استخدام فارغ التحصیلان این دوره ها توسط کمپانی های شناخته شده بسیار بالاست، پذیرش گرفتن برای شرکت در آنها بسیار رقابتی است

علاوه بر لیست رایگانی که در بالا به آنها اشاره شد، دوره های فشرده ی شناخته شده ی دیگری نیز وجود دارند که رایگان نیستند (هزینه آنها سال ۲۰۱۵ بین ۱۲ تا ۱۶ هزار دلار بود). برای دیدن لیست جامع تری از دوره های فشرده دیتا ساینس در آمریکا اینجا را کلیک کنید. در نظر داشته باشید شرکت در این دوره ها اختیاری است و برای اینکه در جای خوبی به عنوان دیتا ساینتیست مشغول به کار شوید، حتماً نباید این دوره ها را گذرانده باشید. اما اگر وقت و هزینه شرکت در یکی از آنها را دارید، این کار را بکنید

:برنامه های تحصیلات تکمیلی

از آنجا که مخاطب این نوشته افرادی هستند که تحصیلات عالی دانشگاهی دارند و می خواهند به دیتا ساینس در حوزه صنعت بپیوندند، شاید گزینه برنامه های تحصیلات تکمیلی به آنها مرتبط نباشد، اما برای کامل شدن بحث این قسمت به صورت کوتاه به آن اشاره ای می کنم

به تازگی دوره های کارشناسی ارشد دیتا ساینس در دانشگاه های مختلف آمریکا از جمله دانشگاه کلمبیای نیویورک و همچنین دانشگاه استنفورد آغاز شده است. برای دیدن لیستی از این دوره ها اینجا کلیک کنید. دوره تمام وقت کارشناسی ارشد این رشته معمولاً یک تا دو سال طول می کشد. به دلیل زمان و هزینه بالا، شرکت در این برنامه ها تنها به فارغ التحصیلان دوره کارشناسی که علاقه مند به دیتا ساینس هستند و یا  آن دسته از افرادی که در حال حاضر در تیم های تجزیه و تحلیل شرکت ها مشغول به کار هستند و می خواهند دیتا ساینس را به صورت آکادمیک بیاموزند، توصیه می شود

سه مرحله تا دیتا ساینتیست شدن

با فرض اینکه شما یک فرد با تحصیلات عالی دانشگاهی و تجربه و تخصص معتبر در حوزه ی علمی خود هستید و مایل هستید دیتا ساینتیست شوید، باید سه گام اساسی برای گذار از حوزه خود به حوزه دیتا ساینس بردارید. اینکه چه مدت زمان برای این گذار نیاز است کاملاً به سطح کنونی مهارت هایتان و اینکه چقدر مایل هستید در این روند تلاش کنید بستگی دارد. به عنوان مثال، برای من از زمانی که اولین دوره ی آنلاین خود را شروع کردم تا اولین پیشنهاد کاری ام را به عنوان دیتا ساینتیست گرفتم، حدود ۱۸ ماه طول کشید. در ادامه به تفصیل به این سه گام اساسی می پردازم. به طرح زیر نگاه کنید

enjob

گسترش مهارت: ایجاد مجموعه ای قوی از مهارت های دیتا ساینس

از آنجا که این گام اولین و شاید مهم ترین گام به سوی هدفتان است، بسیار مهم است که آن را درست انجام دهید. به این دلیل که دیتا ساینس یک گرایش بین رشته ای است، مباحث زیادی ممکن است وجود داشته باشد که کاملاً برای شما جدید باشد و تا کنون با آن ها برخورد نکرده باشید. صبور باشید و یک برنامه منظم را دنبال کنید تا این مباحث را تا آنجا که می توانید به صورت عمیق یاد بگیرید. خیلی نگران میزان وقتی که در این مرحله صرف می کنید نباشید. مثل هر یادگیری دیگری انقدر عقب و جلو می روید تا آن مبحث برای شما جا بیفتد و بتوانید در جاهای دیگر آن را به کار بگیرید. تا می توانید از منابع آموزشی بهره بگیرید و با مفاهیم جدید ارتباط برقرار کنید تا بتوانید در آینده به راحتی از آنها در مسایل دنیای واقعی استفاده کنید

منابع خود را با دقت و هوشمندانه انتخاب کنید و تا می توانید مطالعه کنید، گوش دهید، تماشا کنید و یاد بگیرید تا بتوانید دانش پایه و مهارت های خود را در برنامه نویسی، الگوریتم های یادگیری ماشین و ابزارهای نرم افزاری تکمیل کنید و بهبود ببخشید. کتاب های درسی و دوره های آموزشی آنلاین که در قسمت گذشته به آنها اشاره کردم منابع غنی برای شروع هستند. من شخصاً توصیه می کنم با Machine Learning course in Coursera by Andrew Ng شروع کنید که تقریباً هیچ پیش نیازی از یادگیری ماشین و دیتا ساینس نمی خواهد و بعد از آن دوره ی پیشرفته تر Statistical Learning by Trevor Hastie and Rob Tibshirani  از دانشگاه استنفورد را شروع کنید. لینک هر دوی این دوره ها در قسمت قبلی آمده. آنها دامنه وسیعی از مباحث را با رویکردها و ابزار نسبتاً متفاوت پوشش می دهند که به نظر من استراتژی فوق العاده ای برای یادگیریست

به دنبال افرادی بگردید که در این حوزه تجربه دارند یا آنهایی که مانند شما می خواهند این مسیر گذار را طی کنند، آنها را دنبال کنید و با آنها ارتباط برقرار کنید. قرار است مسیر طولانی ای را طی کنید و داشتن افراد مناسب در زمان مناسب کنار خود در این مسیر بسیار به شما کمک خواهد کرد. از آنجا که مسیر گذار است ممکن است لحظات سخت و تاریکی را هم تجربه کنید. هرگز ناامید نشوید و همواره مثبت بیندیشید. هر چه تصمیم اولیه شما برای شروع این مسیر آگاهانه تر باشد، لحظات سخت و تیره ی کمتری خواهید داشت. تا می توانید در مورد حوزه ی جدیدی که می خواهید به آن وارد شوید اطلاعات کسب کنید

علاوه بر مفاهیم جدید و الگوریتم های مختلف یادگیری ماشین که برای دیتا ساینس ضروری هستند، آشنایی با ابزارها نیز بسیار با اهمیت است. به یک زبان برنامه نویسی به صورت کامل مسلط شوید و سعی کنید تا می توانید از زبان های دیگر هم یاد بگیرید تا بتوانید در شرایط خاص از آنها استفاده کنید. دیتاساینتیست ها در مورد اینکه بهترین زبان برنامه نویسی در این حوزه کدام است نظر واحدی ندارند. مهم نیست از کدام زبان برنامه نویسی برای پیاده سازی الگوریتم های خود استفاده می کنید، آنچه اهمیت دارد این است که قادر باشید با بقیه افراد این حوزه که زبان های برنامه نویسی دیگری استفاده می کنند نیز ارتباط برقرار کنید. به همین خاطر و همچنین به دلیل محبوبیتشان، یادگیری و استفاده از زبان های پایتون و آر بیشتر از بقیه توصیه می شود. پایتون توسط دانشمندان حوزه علوم کامپیوتری نوشته شده و در نتیجه از آر سازمان یافته تر است. در صورتی که آر توسط آمارگران ایجاد شده و برای یادگیری آسان تر است و مفاهیم آماری را راحت تر می توان با آن به کار بست. من برای اطمینان هر دو را یاد گرفتم و با آنها کار کرده ام. و از آن پشیمان نیستم

انجام پروژه: شروع کردن و تمام کردن یک پروژه ی دیتا ساینس

اگرچه گسترش مهارت های مورد نیاز اساسی ترین و طولانی ترین گام برای دیتا ساینتیست شدن است، نمی توان تأثیر مثبت انجام پروژه های کوچک دیتا ساینس را بر موفقیتتان در گام بعدی که جستجوی کار است، نادیده گرفت. اگر از نقطه نظر مدیری که می خواهد شما را برای اولین بار به عنوان دیتا ساینتیست استخدام کند فکر کنید، هر اندازه هم رزومه ی خوب و لیست طولانی مقاله های داوری در مجلات علمی تأثیرگذار داشته باشید، اولین چیزی که او می خواهد بداند این است که آیا شما واقعاً توانایی انجام یک پروژه دیتا ساینس را از ابتدا تا انتها دارید یا خیر. انجام یک پروژه دیتا ساینس پیش از مصاحبه ی کاری و نشان دادن مراحل و نتایج آن یک فاکتور کلیدی است که توانایی و کیفیت کار شما را برای مصاحبه شونده مشخص می کند و در واقع به او کمک می کند تا بتواند آگاهانه تر و در نتیجه با اطمینان بیشتری تصمیم خود را بگیرد

پروژه های بسیاری در این زمینه وجود دارند که می توانید در این مرحله روی آن ها کار کنید. شرکت در برنامه های کارآموزی شرکت های معتبر هم قطعاً ایده ی خوبی است که اگر وقتش را دارید انجام دهید. در نظر داشته باشید که در این صورت باید تمام مراحل اداری مرتبط با درخواست کارآموزی را طی کنید. اما اگر به هر دلیلی نمی توانید به عنوان کارآموز در جایی مشغول شوید، توصیه می کنم خودتان روی یک پروژه کار کنید که هم زمان کمتری از شما می گیرد و هم انعطاف پذیرتر است. در صورتی که تصمیم گرفتید خودتان روی یک پروژه کار کنید توصیه می کنم حتماً در یکی از رقابت های کگل Kaggle شرکت کنید. کگل جایی است برای آن دسته از دیتا ساینتیست هایی که مایلند در حل مسائل بسیار جالب و واقعی شرکت کنند. رقابت ها در دسته های مختلف با ساختار تقریباً یکسان انجام می شود. روال ساده ای دارد: مسائل مختلف دیتا ساینس وجود دارد که باید پیش از موعد مقرر آن را حل کنید. تمام داده های آزمایشی هم برای دانلود قابل دسترسی است. راه حلی که شما قرار است در وبسایت ثبت کنید باید در قالب یک فایل با فرمت استاندارد باشد. مهم نیست از چه ابزار، روش یا الگوریتمی استفاده می کنید. کگل فایل ثبت شده ی شما را با مقایسه آن با راه حل درستی که به صورت محرمانه نگه داشته، امتیاز دهی می کند

به چند دلیل کگل جایگاه فوق العاده ای برای استفاده شما در این مقطع است. اول اینکه تمام مسایل مطرح شده در این وبسایت مسایل استاندارد و واقعی هستند و شما گزینه های مختلفی دارید که می توانید از میان آنها انتخاب کنید. دوم اینکه از آنجایی که در قالب رقابت انجام می شود، تعداد زیادی مانند شما خواهند بود که روی همان مسئله ای که شما کار می کنید، کار می کنند. در نتیجه می توانید با آنها ارتباط برقرار کنید تا ایده های خود را با آنها در میان بگذارید  و الگوریتم ها و نتایج خود را بهتر کنید. و سوم اینکه در پایان رقابت، راه حل شما رتبه بندی می شود و اگر آن را به خوبی انجام داده باشید، می توانید آن را به عنوان یک دستاورد معتبر که کیفیت کار شما را نشان می دهد ارائه کنید

جستجوی کار: رزومه خود را به روز کنید و جستجو ای هوشمندانه انجام دهید

پس از طی دو مرحله ی قبلی حالا زمان آن رسیده که جستجو برای شغل رویاییتان را آغاز کنید. اما همچون مراحل قبلی، این مرحله یعنی یافتن شغل مناسب هم آسان نخواهد بود. اگرچه تقاضا برای جذب دیتا ساینتیست بالاست، باید در نظر داشته باشید که افراد با استعداد بسیاری مانند شما با تحصیلات عالی به صورت فعال در بازار کار مشغول جستجو هستند و در نتیجه محیط برای دیتا ساینتیست شدن بسیار رقابتی است. به همین دلیل برای اینکه در مرحله ی پایانی هم موفق شوید باید استراتژی و قواعد خاصی را دنبال کنید

اگر از محیط دانشگاهی می آیید و سی-وی ۱۰ صفحه ای با لیست کامل سخنرانی ها، مقالات، سمینارها و دستاوردهای خود دارید، آن را کنار بگذارید و به جای آن یک رزومه ی حداکثر دو صفحه ای بسازید. در ابتدای رزومه خود اطمینان حاصل کنید که به صورت واضح خود را معرفی کرده اید؛ اینکه که هستید و چه می خواهید. مهارت های اصلی خود را که مرتبط با شغلیست که دنبال آن هستید (یعنی دیتا ساینتیست) برجسته کنید. تجربیات کاری خود را فهرست کنید تا مهارت های ذکر شده شما را توجیه و تأیید کند

در نظر داشته باشید که عبارت “دیتا ساینتیست” اغلب به صورت یک عنوان کلی استفاده می شود و مشاغلی که به شدت با هم متفاوت هستند را در بر می گیرد. دقت کنید با عنوان شغلی دیتا ساینتیست دقیقاً قرار است چه وظایفی داشته باشید و در چه حوزه ای از صنعت کار خواهید کرد. نقش مهندس دیتا، تحلیل گر دیتا و دیتا ساینتیست ممکن است در نگاه اول برای شما گیج کننده به نظر برسد. این لینک نقش های مختلفی که در حوزه کاری دیتا ساینس وجود دارد را به خوبی توصیف می کند

وقتی می خواهید به یک حوزه ی جدید وارد شوید، اطلاعاتی که از پیش در این زمینه کسب می کنید به شما قدرت پردازش و انتخاب می دهد. در نتیجه جنبه های مختلف مرتبط و همچنین آنچه که بیش از همه به آن علاقه مند هستید را به دقت مورد تحقیق و بررسی قرار دهید. هیچ پرسشی احمقانه یا ساده لوحانه نیست. پاسخ سوالات خود را در مورد مشاغل مربوط به دیتا ساینس پیدا کنید.  خواندن  این گزارش در مورد تحلیل وضعیت ۳۷۰ دیتا ساینتیست در سال ۲۰۱۵ در آمریکا در این مرحله، یعنی جستجوی کار، بسیار مفید است. ممکن است در سال های آتی نیز چنین گزارش هایی در مورد وضعیت دیتا ساینس و افراد مشغول در این حوزه منتشر شود. این وبسایت  نیز در این زمینه اطلاعات خوبی می دهد. این اطلاعات و گزارش ها را به دقت مطالعه کنید و ذهن خود را در مورد اینکه قرار است وارد چه محیط کاری و حوزه ای شوید آماده کنید

در واقع برای تکمیل بحث در این قسمت باید راجع به این موضوع که چطور می توان به صورت کارآمد به جستجوی شغل مورد نظر خود پرداخت و چه تکنیک هایی در این مسیر نیاز است، نیز اشاره ای بکنم. اما از آنجایی که موضوع گسترده ایست و ممکن است ما را از بحث اصلی این متن خارج کند، تصمیم گرفتم به این موضوع نپردازم و شما را به منابع تخصصی دیگری که در این خصوص وجود دارد ارجاع دهم

اما می خواهم در آخر به اختصار به سه مورد مهم و اساسی اشاره کنم. اول اینکه، برای انجام مصاحبه آماده باشید اما انتظار نداشته باشید چند مصاحبه ی اول شما حتماً همانطور که می خواهید پیش بروند. همیشه مصاحبه های بعدی بهتر می شود. از نکاتی که به نظرتان مهم است یادداشت بردارید و از تجربیات مصاحبه های قبلی در موارد بعدی استفاده کنید. از قبل ذهن خود را برای آنچه می خواهید ارائه دهید آماده کنید. این کار زمان می برد و در مصاحبه های اول آسان نخواهد بود. یادم می آید وقتی از گوگل مصاحبه تلفنی گرفتم فقط به خاطر اینکه برایش آماده نبودم خیلی استرس داشتم. بعداً در مصاحبه های بعدی این مسئله بهتر شد

نکته دوم در مورد مهارت های ارتباطی است که باید روی آن سخت کار کنید و شبکه ارتباطی خود را بسازید. اگر دوستان دیتا ساینتیست دارید، با آنها تماس بگیرید، از آنها نظرخواهی کنید و آنها را در روند جستجوی کاری خود وارد کنید. ممکن است آنها اطلاعاتی در مورد فرصت های شغلی در محل کار یا شبکه ارتباطی خود داشته باشند که برای شما جالب باشد. با ارتباط با دیگران می توانید فرصت ها و حق انتخاب های خود را گسترش دهید

سوم اینکه شبکه های اجتماعی ابزار قدرتمند و بسیار پرکاربردی هستند. از آنها استفاده کنید و همیشه به روز باشید. هرچند ملاقات های رو در رو فوق العاده هستند اما ابزارهای آنلاین را نیز در مسیر جستجوی کاری خود دست کم نگیرید و حداکثر استفاده را از آنها ببرید. دیتا ساینتیست های مطرح و شناخته شده را، به خصوص آنهایی که در منطقه جغرافیایی مد نظر شما هستند، در شبکه های اجتماعی دنبال کنید و ببینید مشغول چه کاری هستند. شبکه های اجتماعی زیر در این زمینه میتوانند بسیار مفید باشند

LinkedInMonsterIndeedKaggle job boardGlassdoor

ترجمه از منبع اصلی
شناسه ی من در توئیتر: smirshekari

 

Posted in Programing, فارسی | Tagged | Leave a comment