🧠
رتبه ۳ از ۱۰رشد ۲۲% سالانه

مهندس یادگیری عمیق

Deep Learning Engineer

مهندس یادگیری عمیق شبکه‌های عصبی چندلایه‌ای می‌سازد که پشت ChatGPT، تشخیص چهره، خودروهای خودران و دستیارهای صوتی قرار دارند. با رشد ۲۰٪ سالانه و کمبود شدید متخصص، این نقش یکی از پردرآمدترین و پرتقاضاترین تخصص‌های صنعت فناوری در ۲۰۲۵ است.

PyTorchTensorFlowTransformer ArchitectureCNN / RNNCUDA & GPU TrainingBackpropagationDistributed TrainingHuggingFace

مقدمه و تعریف شغل

مهندس یادگیری عمیق متخصصی است که شبکه‌های عصبی مصنوعی چندلایه (Deep Neural Networks) طراحی، آموزش و استقرار می‌دهد. برخلاف یادگیری ماشین کلاسیک که به feature engineering دستی نیاز داشت، مدل‌های یادگیری عمیق خودشان ویژگی‌های پیچیده را از داده خام یاد می‌گیرند — از پیکسل تصویر، امواج صوتی یا توکن‌های متنی.

یادگیری عمیق از دهه ۱۹۸۰ وجود داشت اما تا سال ۲۰۱۲ که AlexNet در رقابت ImageNet با فاصله بُرد، کسی آن را جدی نگرفت. بعد از آن، انقلاب واقعی آغاز شد: معماری Transformer در ۲۰۱۷، GPT در ۲۰۱۸، BERT، GPT-3، و در نهایت ChatGPT در ۲۰۲۲ که نشان داد این تکنولوژی تغییر دهنده دنیاست. امروز هیچ حوزه فناوری بزرگی بدون یادگیری عمیق وجود ندارد.

چه چیزی می‌سازید؟

مثال‌های واقعی از خروجی کار یک مهندس یادگیری عمیق

💬

مدل‌های زبانی بزرگ

GPT-4، Claude، Gemini — مغز پشت هوش مصنوعی مکالمه‌ای

👁️

سیستم‌های بینایی ماشین

تشخیص چهره، تشخیص سرطان از MRI، کنترل کیفیت کارخانه

🎯

موتورهای توصیه‌گر

الگوریتم یوتیوب، Netflix، TikTok — چه ویدیویی بعد نشان داده شود

🚗

سیستم‌های خودران

شبکه‌های عصبی Tesla FSD، Waymo برای تفسیر محیط اطراف

🎨

تولید محتوای مصنوعی

Stable Diffusion، DALL-E — تولید تصویر، ویدیو و موسیقی با AI

تخصص‌های مختلف مهندس یادگیری عمیق

این شغل یک عنوان واحد نیست — مسیرهای تخصصی متعددی دارد

👁️

یادگیری عمیق بینایی

Computer Vision DL

CNN، ViT، object detection (YOLO، Detectron) — حوزه‌هایی مثل پزشکی، امنیت و خودران

📝

مدل‌های زبانی

NLP & Language Models

Transformer، BERT، GPT — اکنون پرتقاضاترین زیرحوزه یادگیری عمیق

🎨

مدل‌های مولد

Generative Models

GAN، Diffusion Models، VAE — پشت Stable Diffusion، Sora و Midjourney

🎮

یادگیری تقویتی

Reinforcement Learning

آموزش عامل‌ها از طریق reward — پشت AlphaGo، RLHF در ChatGPT، رباتیک

تفاوت با شغل‌های مشابه

کجا این شغل تمام می‌شود و شغل دیگری شروع می‌شود؟

مهندس یادگیری ماشینML Engineer

ML Engineer طیف گسترده‌تری از الگوریتم‌ها شامل decision tree، SVM و gradient boosting را پوشش می‌دهد. مهندس DL فقط روی شبکه‌های عصبی عمیق تمرکز دارد و نیاز به GPU و داده خیلی بیشتری دارد.

دانشمند تحقیقات هوش مصنوعیAI Research Scientist

Research Scientist معماری جدید اختراع می‌کند و paper منتشر می‌کند. مهندس DL معمولاً آن معماری‌ها را پیاده‌سازی و برای production آماده می‌کند — تمرکز روی engineering است نه research محض.

مهندس مدل‌های زبانیLLM Engineer

مهندس LLM با مدل‌های زبانی از پیش آموزش‌دیده کار می‌کند (fine-tuning، RAG، prompt engineering). مهندس DL با معماری‌های عصبی در سطح پایین‌تر سروکار دارد — از آموزش مدل از صفر تا بهینه‌سازی GPU kernel.

تأثیر در صنایع مختلف

مهندس یادگیری عمیق در همه صنایع مشغول به کار است — نه فقط شرکت‌های فناوری

🏥

بهداشت و پزشکی

تشخیص سرطان از تصویر با دقت برابر یا بالاتر از پزشک — FDA اولین AI medical device را تأیید کرد

🚗

حمل‌ونقل

خودروهای خودران Tesla، Waymo — شبکه‌های عصبی که محیط اطراف را تفسیر می‌کنند

💰

مالی و بانکداری

تشخیص تقلب real-time، ارزیابی ریسک اعتباری، ترید الگوریتمی

🎬

سرگرمی

الگوریتم‌های توصیه Netflix و YouTube — مسئول ۷۰٪ تمام محتوایی که تماشا می‌کنیم

🌾

کشاورزی

تشخیص بیماری گیاه از عکس، پیش‌بینی عملکرد محصول، هدایت رباتیک برداشت

تصورات غلط رایج

قبل از تصمیم‌گیری، این باورهای اشتباه را بشناسید

برای یادگیری عمیق باید فیزیک دکترا داشته باشی

Jeremy Howard بدون مدرک دکترا، از طریق Kaggle و پروژه‌های عملی، تبدیل به یکی از تأثیرگذارترین چهره‌های یادگیری عمیق شد. fast.ai را ساخت که ابزار آموزشی اصلی این حوزه است. ریاضیات پایه (حساب دیفرانسیل، جبر خطی) کافی است.

باید GPU گران‌قیمت داشته باشی

Google Colab رایگان، Kaggle Notebooks و Lambda Labs برای شروع کافی است. وقتی پروژه‌های بزرگ‌تر داری، cloud GPU (A100 در AWS یا GCP) ساعتی اجاره می‌شود. هزاران مهندس DL بدون GPU شخصی حرفه‌ای هستند.

یادگیری عمیق فقط در شرکت‌های بزرگ معنا دارد

استارتاپ‌های پزشکی، صنعتی، کشاورزی و مالی همه به مهندس DL نیاز دارند. بسیاری از شرکت‌های متوسط اپلیکیشن‌های domain-specific می‌سازند که نیاز به fine-tuning مدل‌های موجود دارند — نه آموزش از صفر.

یک روز کاری واقعی

در هر سطح روز کاری چه شکلی است؟

جونیور

کار روی pipeline آموزش، پاکسازی داده، اجرای آزمایش‌های تعریف‌شده و گزارش نتایج. بخش زیادی از روز صرف debug کردن کد PyTorch و خواندن مقالات می‌شود.

  • پیاده‌سازی معماری‌های شبکه عصبی از paper
  • آموزش مدل با hyperparameter های مختلف
  • اندازه‌گیری accuracy، loss و سایر متریک‌ها
  • debug کردن NaN loss و مشکلات gradient
  • خواندن و summarize کردن papers جدید

میدلول

طراحی آزمایش‌های جدید، بهینه‌سازی زمان آموزش، همکاری با تیم product برای تبدیل نیاز کسب‌وکار به architecture مناسب. تصمیم‌گیری مستقل درباره approach فنی.

  • طراحی معماری مدل برای use case جدید
  • پیاده‌سازی data augmentation و training tricks
  • بهینه‌سازی آموزش با mixed precision و gradient checkpointing
  • code review و mentoring
  • تحلیل failure mode های مدل در production

سینیور

تعریف roadmap تحقیقاتی تیم، تصمیم‌گیری درباره معماری‌های بزرگ، ارتباط با leadership درباره اهداف فنی. بخشی از زمان صرف hiring و mentoring می‌شود.

  • تعریف research agenda تیم
  • ارزیابی و تصمیم درباره foundation model یا train from scratch
  • هدایت پروژه‌های distributed training روی کلاستر GPU
  • نوشتن technical report یا paper داخلی
  • همکاری با infra team برای pipeline آموزش در scale

مسئولیت‌ها و وظایف

مسئولیت‌های اصلی

وظایف روزانه و مهارت‌های مورد نیاز در این شغل

فنی
  • طراحی و آموزش معماری‌های شبکه عصبی عمیق برای مسائل تعریف‌شده
  • پیاده‌سازی paper های جدید و آزمایش ایده‌های تحقیقاتی
  • بهینه‌سازی pipeline آموزش برای سرعت و کارایی GPU
  • ارزیابی مدل با معیارهای مناسب و تحلیل failure mode ها
  • استقرار مدل‌های آموزش‌دیده در محیط production
  • مستندسازی آزمایش‌ها و به اشتراک‌گذاری یافته‌ها با تیم
  • پایش مدل‌های production و رفع مشکلات regression
مهارت نرم
  • همکاری با تیم داده برای ساخت dataset های با کیفیت

مهارت‌های مورد نیاز

مهارت‌های فنی، نرم و حوزه‌ای که یک مهندس یادگیری عمیق موفق به آن‌ها نیاز دارد

مهارت‌های فنی

PyTorchضروری

فریم‌ورک اصلی صنعت برای یادگیری عمیق. در ۷۰٪+ job posting های DL ذکر می‌شود. باید autograd، custom dataset، DataLoader و training loop را عمیق بدانی.

معماری‌های شبکه عصبیضروری

CNN، RNN، LSTM، GRU، Transformer، Attention Mechanism. باید بدانی هر کدام کجا و چرا استفاده می‌شوند.

ریاضیات یادگیری عمیقضروری

حساب دیفرانسیل (backpropagation)، جبر خطی (matrix ops روی GPU)، آمار (probability, distributions). نیازی به سطح دکترا نیست — calculus و linear algebra دانشگاهی کافی است.

Python و NumPyضروری

پایه تمام کار DL. NumPy برای درک عملیات tensor الزامی است. Pandas برای data exploration.

GPU Programming و CUDAمهم

درک اینکه چطور عملیات tensor روی GPU اجرا می‌شود. mixed precision (FP16)، gradient checkpointing، memory management.

Distributed Trainingمهم

آموزش مدل روی چند GPU یا چند ماشین. PyTorch DDP، FSDP، DeepSpeed — برای مدل‌های بزرگ ضروری است.

HuggingFace Ecosystemضروری

Transformers، Datasets، PEFT — اکوسیستم استانداردی که در اکثر شرکت‌ها استفاده می‌شود.

TensorFlow / Kerasمفید

فریم‌ورک دوم بازار — در بعضی شرکت‌ها (Google-stack) هنوز dominant است. PyTorch اولویت دارد اما TF مفید است.

مهارت‌های نرم

خواندن و درک paperضروری

توانایی خواندن مقالات arXiv و پیاده‌سازی ایده اصلی. هر هفته ده‌ها paper جدید منتشر می‌شود — باید سریع غربال کنی.

آزمایشگری منظمضروری

طراحی آزمایش کنترل‌شده: تغییر یک متغیر در هر بار، ثبت دقیق نتایج، تفسیر درست. بدون این مهارت، DL بازی تصادف است.

صبر با شکست مدلمهم

۸۰٪ آزمایش‌ها کار نمی‌کنند. توانایی تحلیل علت شکست بدون ناامید شدن و تطبیق رویکرد.

ارتباط فنیمهم

توضیح نتایج مدل به غیرمتخصص — چرا مدل اشتباه می‌کند، چه trade-off ی وجود دارد، چقدر طول می‌کشد.

دانش حوزه‌ای

نظریه اطلاعات پایهمهم

Cross-entropy loss، KL divergence، entropy — این مفاهیم مستقیماً در loss function های DL ظاهر می‌شوند.

regularization و generalizationضروری

Dropout، BatchNorm، weight decay، data augmentation — چطور مدل را از overfitting نجات دهی.

Optimizationضروری

Adam، SGD، learning rate scheduling، warmup — انتخاب optimizer و تنظیم آن تأثیر بزرگی روی نتیجه دارد.

Experiment Trackingمهم

Weights & Biases، MLflow، TensorBoard — بدون tracking، آزمایش‌ها تکرارناپذیر و غیرقابل مقایسه می‌شوند.

ضروری — بدون آن نمی‌توان وارد بازار کار شدمهم — تفاوت بین جونیور و میانیمفید — مزیت رقابتی

نقشه راه و مسیر آموزشی

نقشه راه تبدیل شدن به مهندس یادگیری عمیق

این مسیر گام به گام شما را از صفر تا حرفه‌ای هدایت می‌کند.

1

پایه‌های ریاضی و Python

⏱️ ۲-۳ ماه

ریاضیات ضروری و ابزارهای Python برای ML

حساب دیفرانسیلجبر خطیآمار و احتمالPythonNumPyMatplotlib
2

یادگیری عمیق پایه

⏱️ ۳-۴ ماه

معماری‌های اصلی شبکه عصبی و PyTorch

PyTorchCNNRNN / LSTMBackpropagationRegularizationTraining Loop
3

Transformer و مدل‌های زبانی

⏱️ ۲-۳ ماه

معماری Transformer و اکوسیستم HuggingFace

Attention MechanismTransformerBERTGPTHuggingFaceFine-tuning
4

مقیاس‌پذیری و GPU Engineering

⏱️ ۲-۳ ماه

آموزش distributed و بهینه‌سازی inference

Mixed PrecisionGradient CheckpointingPyTorch DDPDeepSpeedONNXQuantization
5

تخصص و production

⏱️ مداوم

انتخاب زیرحوزه و استقرار مدل در production

Computer Vision / NLP / RL (انتخابی)MLOpsExperiment TrackingModel ServingA/B Testing

ابزارها و استک فنی

ابزارهایی که هر مهندس AI باید بشناسد، دسته‌بندی‌شده بر اساس اولویت

فریم‌ورک‌های اصلی

PyTorch

استاندارد صنعت برای تحقیق و production — در ۷۰٪+ job posting های DL.

ضروری
HuggingFace Transformers

کتابخانه اصلی برای fine-tuning مدل‌های Transformer.

ضروری
TensorFlow / Keras

فریم‌ورک دوم بازار — در Google stack و mobile (TFLite) مهم است.

مفید
JAX

فریم‌ورک Google DeepMind برای تحقیق — برای مهندسان پیشرفته و تیم‌های research.

پیشرفته

مقیاس‌پذیری و inference

DeepSpeed

Microsoft — آموزش مدل‌های بزرگ روی multi-GPU/multi-node.

پیشرفته
ONNX Runtime

استانداردسازی مدل برای inference روی پلتفرم‌های مختلف.

مفید
vLLM

serving پرسرعت برای LLM ها در production.

مفید
bitsandbytes

quantization (INT8/INT4) برای کاهش حافظه مدل‌های بزرگ.

مفید

MLOps و tracking

Weights & Biases

tracking آزمایش، visualization و model registry — استاندارد تیم‌های DL.

ضروری
MLflow

open-source experiment tracking و model lifecycle management.

مفید
DVC

version control برای dataset های بزرگ و model artifacts.

مفید
ضروری — باید یاد بگیریدمفید — ارزش یادگیری داردپیشرفته — برای سطوح ارشد

مسیر پیشرفت شغلی

از جونیور تا Staff Engineer — چه مهارت‌هایی نیاز دارید و چه درآمدی انتظار داشته باشید

جونیور DL Engineer

۰-۲ سال

~$110K

میانگین سالانه (آمریکا)

پیاده‌سازی paper، fine-tuning مدل‌های موجود، آماده‌سازی داده

PyTorchCNN/RNNHuggingFaceJupyterWandB

میدلول DL Engineer

۲-۵ سال

~$165K

میانگین سالانه (آمریکا)

طراحی معماری، distributed training، end-to-end pipeline

TransformerMulti-GPU TrainingONNXMLOpsResearch Reading

سینیور DL Engineer

۵-۱۰ سال

~$230K

میانگین سالانه (آمریکا)

هدایت تیم تحقیقاتی، معماری سیستم‌های بزرگ، mentoring

Foundation ModelsEfficiency OptimizationTeam LeadershipResearch Direction

Staff / Principal Engineer

۱۰+ سال

~$320K

میانگین سالانه (آمریکا)

تعریف direction فنی سازمان، research leadership، publications

Strategic ThinkingPublicationsCross-org InfluenceNovel Architectures

چالش‌ها و جنبه‌های منفی

واقعیت‌هایی که کمتر در آگهی‌های شغلی می‌بینید — قبل از ورود بدانید

بی‌ثباتی آموزش مدل‌های بزرگ

شرکت بزرگ

آموزش مدل‌های بزرگ ساعت‌ها یا روزها طول می‌کشد — و در وسط راه ممکن است NaN loss بدهد یا گرادیان explode کند. هزینه GPU از دست رفته و نیاز به debug دقیق pipeline چالش اصلی سینیورهاست.

کمبود داده با کیفیت برای domain خاص

استارتاپ

مدل‌های عمومی روی ImageNet یا Common Crawl آموزش دیده‌اند. وقتی می‌خواهی تشخیص بیماری پوست یا نقص صنعتی را fine-tune کنی، dataset های کوچک و noisy جمع‌آوری کردن چالش اصلی است.

به‌روز ماندن با سرعت انتشار paper

تحقیقاتی

هر هفته ده‌ها مقاله مهم روی arXiv منتشر می‌شود. تصمیم‌گیری درباره اینکه کدام paper ارزش پیاده‌سازی دارد و کدام buzz بی‌ماهیت است، مهارتی است که سال‌ها طول می‌کشد یاد بگیری.

فاصله بین accuracy در آزمایش و کارایی در production

عمومی

مدلی که روی validation set ۹۵٪ accuracy دارد، ممکن است در محیط واقعی با داده‌های noisy، out-of-distribution یا adversarial به ۷۰٪ برسد. هدایت این شکاف نیاز به engineering جدی دارد.

هزینه محاسباتی و زیرساخت GPU

شرکت بزرگ

آموزش مدل‌های بزرگ گران است — GPT-4 حدود ۱۰۰ میلیون دلار هزینه compute داشت. حتی برای مدل‌های متوسط، مدیریت GPU budget، checkpoint strategy و prioritization آزمایش‌ها چالش مالی و فنی ایجاد می‌کند.

حقوق و بازار کار جهانی

حقوق جهانی مهندس یادگیری عمیق

میانگین حقوق سالانه بر اساس تجربه در کشورهای مختلف

کشورمیانهارز
🇺🇸ایالات متحده (سینیور)
$270,000USD

* ارقام سالانه و تقریبی هستند و بر اساس میانگین بازار در سال ۲۰۲۵ محاسبه شده‌اند.

چگونه از صفر شروع کنیم

برنامه گام‌به‌گام برای ورود به مهندسی هوش مصنوعی

ریاضیات پایه و Python

حساب دیفرانسیل، جبر خطی و آمار را در حد دانشگاهی مرور کن. NumPy را یاد بگیر تا عملیات ماتریسی برایت طبیعی شود. Khan Academy برای ریاضیات کافی است.

fast.ai Practical Deep Learning

بهترین نقطه شروع برای DL. Jeremy Howard از بالا به پایین تدریس می‌کند — اول مدل را اجرا می‌کنی، بعد می‌فهمی چطور کار می‌کند. نیازی به دکترا نیست.

پروژه اول: image classifier

یک classifier تصویر بساز با ResNet روی dataset دلخواه. از Kaggle یا Google Colab استفاده کن — بدون GPU شخصی. هدف: اولین مدل working را به production برسانی.

پروژه‌های پیشنهادی برای رزومه

Image Classifier از صفر با PyTorch

مبتدی

یک CNN بساز که بتواند dataset دلخواه را طبقه‌بندی کند. بدون استفاده از pretrained model — همه لایه‌ها را خودت بنویس. سپس با Transfer Learning مقایسه کن.

PyTorchtorchvisionMatplotlibJupyter Notebook
زمان تخمینی: ۲-۳ هفته

miniGPT: مدل زبانی از صفر

متوسط

یک مدل GPT کوچک روی یک corpus فارسی (مثل اشعار حافظ یا اخبار) آموزش بده. character-level یا BPE tokenization. نتایج جالب در نوشتن شعر به سبک حافظ!

PyTorchTransformerBPE TokenizationWandB
زمان تخمینی: ۳-۴ هفته

تشخیص بیماری از تصویر پزشکی

متوسط

از dataset عمومی (مثل chest X-ray یا diabetic retinopathy) یک classifier بساز. نکته: class imbalance و interpretability با Grad-CAM را حل کن.

PyTorchResNetGrad-CAMscikit-learnDICOM
زمان تخمینی: ۴-۶ هفته

Stable Diffusion Fine-tuning برای style خاص

پیشرفته

یک Stable Diffusion را با DreamBooth یا LoRA روی style تصویری خاص fine-tune کن. مدل را در HuggingFace Spaces deploy کن تا قابل استفاده عمومی باشد.

DiffusersLoRADreamBoothHuggingFace SpacesCUDA
زمان تخمینی: ۴-۶ هفته

مثال‌های واقعی و Case Studies

داستان‌های واقعی از مهندسانی که در این حوزه تأثیرگذار بوده‌اند

A

Andrej Karpathy

پیشینه

دانشجوی دکترای دانشگاه Stanford زیر نظر Fei-Fei Li. در زمانی که یادگیری عمیق هنوز نظریه حاشیه‌ای بود، روی نقاط تلاقی NLP و Computer Vision کار کرد.

دستاورد

اولین دوره DL دانشگاهی عمده را در Stanford تدریس کرد (CS 231n — بیش از ۷۵۰ دانشجو). عضو موسس OpenAI بود. Director of AI در Tesla شد و مسئول Autopilot. سپس Eureka Labs را راه انداخت — استارتاپ آموزش با AI.

درس کلیدی

توانایی توضیح ساده مفاهیم پیچیده — از nanoGPT تا ویدیوهای یوتیوب — خودش یک مهارت استراتژیک است. آموزش دادن، یادگیری را عمیق‌تر می‌کند.

J

Jeremy Howard

پیشینه

مشاور McKinsey برای ۸ سال. هیچ مدرک دکترای نداشت. از طریق Kaggle و پروژه‌های عملی، بدون مسیر آکادمیک سنتی به حوزه ML وارد شد.

دستاورد

President و Chief Scientist در Kaggle. رتبه اول Kaggle global را گرفت. اولین شرکت برای اعمال DL در پزشکی (Enlitic) را تأسیس کرد. fast.ai را ساخت که با رویکرد top-down تدریس، هزاران نفر را وارد حوزه کرد.

درس کلیدی

مدرک PhD شرط لازم برای مهندس DL تأثیرگذار نیست. تجربه عملی، پروژه‌های واقعی و آموزش دیگران، مسیر جایگزین قوی است.

I

Ilya Sutskever

پیشینه

دانشجوی دکترا زیر نظر Geoffrey Hinton در دانشگاه Toronto. در زمانی که اکثر محققان ML به شبکه‌های عصبی عمیق باور نداشتند، Hinton و تیمش در حاشیه بودند.

دستاورد

نویسنده اصلی AlexNet (2012) که انقلاب DL را آغاز کرد. عضو موسس و Chief Scientist در OpenAI. زیر نظر او GPT-1، GPT-2، GPT-3 و ChatGPT توسعه یافتند. بعداً Safe Superintelligence (SSI) را تأسیس کرد.

درس کلیدی

پافشاری روی ایده‌های ناپذیرفته‌شده با داده و آزمایش — نه با بحث — راه اثبات است. AlexNet چیزی نگفت؛ نتایج را نشان داد.

نمونه آگهی استخدام واقعی + تحلیل

یک آگهی واقعی از شرکت فعال در حال استخدام، با تحلیل هر بخش

Research Engineer, Language — Generative AI

Metaمِنلوپارک، کالیفرنیا (Hybrid)2025-09
مشاهده آگهی اصلی

تحلیل نیازمندی‌ها

EN

Research experience in machine learning, deep learning, and/or NLP

Meta می‌خواهد کسی که نه فقط از API استفاده کند، بلکه در سطح تحقیق با مدل‌ها کار کرده باشد. paper خوانده باشد، ایده جدید آزمایش کرده باشد. پروژه‌های Kaggle یا GitHub که نشان‌دهنده این تجربه باشد.

ضروری
EN

Experience developing ML models at scale from inception to business impact

دوره کامل مدل: از ایده اولیه تا مدل deployed که اثر واقعی داشته. این یعنی فقط model training کافی نیست — باید evaluation، debugging و impact measurement هم بلد باشی.

ضروری
EN

Programming experience in Python and hands-on experience with PyTorch

PyTorch استاندارد Meta است. «Hands-on» یعنی نوشتن custom training loop، custom loss، custom dataset — نه فقط استفاده از tutorials آماده.

ضروری
EN

Experience in LLM areas: data processing, fine-tuning, alignment, RLHF

این نشان می‌دهد Meta به دنبال DL مهندسی در حوزه LLM است. آشنایی با RLHF (روشی که ChatGPT را مفید کرد) و pipeline‌های pretraining، یک مزیت بزرگ است.

مهم
EN

First author publications at peer-reviewed AI conferences (NeurIPS, CVPR, ICML) — preferred

این preferred است نه required. اما برای Research Engineer (نه Software Engineer) در Meta، publication record شانسِ callback را به‌شدت بالا می‌برد. حتی یک paper در workshop معتبر ارزش دارد.

مفید
EN

Adapt standard ML methods to parallel environments: distributed clusters, GPU

Meta مدل‌های خود را روی هزاران GPU آموزش می‌دهد. PyTorch DDP، FSDP یا DeepSpeed را باید بشناسی. حتی تجربه روی ۴-۸ GPU، baseline خوبی است.

مهم

تحلیل مسئولیت‌ها

EN

Designing methods and infrastructure to push the state of the art in LLMs

این نقش pure engineering نیست — یعنی باید روش‌های جدید هم پیشنهاد بدهی. Meta به تیم‌های DL خود آزادی تحقیقاتی قابل توجهی می‌دهد. ایده داشتن و آن را آزمایش کردن بخش کار است.

EN

Contributing to experiments: designing, coding, running evaluations

loop آزمایش در Meta سریع است: idea → implement → eval → next iteration. باید بتوانی در ساعت‌ها نه روزها، آزمایش را راه‌اندازی کنی. کد تمیز و modular برای reuse مهم است.

EN

Defining research goals informed by practical engineering concerns

یعنی تحقیق باید زمین‌گیر باشد — نه paper بدون کاربرد. باید بدانی چه بهبودی واقعاً به محصول اثر می‌گذارد و چه چیزی فقط در benchmark خوب است.

نتیجه‌گیری کلی

Meta به دنبال ترکیب نادری است: کسی که هم کد تمیز و scalable بنویسد، هم ایده تحقیقاتی بدهد، هم اثر کارش را روی محصول ببیند. اگر می‌خواهی در این تیم باشی، یک پروژه end-to-end داشته باش که هم کد را نوشتی، هم نتیجه را ارزیابی کردی، هم چیزی یاد گرفتی که در جای دیگر نبود.

آینده و روندها

پیش‌بینی ۵–۱۰ ساله و مهارت‌هایی که باید یاد بگیرید

تقاضا برای مهندسان DL در ۵ سال آینده ۴۰٪ رشد می‌کند — ۱ میلیون شغل جدید در حوزه AI/ML تا ۲۰۳۰

منبع: World Economic Forum Future of Jobs 2025 / Bureau of Labor Statistics

مهارت‌های نوظهور که باید یاد بگیرید

Foundation Model Fine-tuning (LoRA, QLoRA, PEFT)Multimodal Deep Learning (تصویر + متن + صدا)Efficient AI (quantization، pruning، distillation)Reinforcement Learning from Human Feedback (RLHF)Neuromorphic Computing و Hardware-aware MLAI Safety و InterpretabilitySynthetic Data Generation

پیش‌بینی‌های آینده

2026

اکثر شرکت‌های Fortune 500 تیم DL داخلی دارند. مهندس DL که فقط کد بنویسد کافی نیست — باید درک کسب‌وکار هم داشته باشد.

2027

Multimodal models (تصویر+صدا+متن+ویدیو) تبدیل به baseline می‌شوند. مهندسانی که فقط در یک modality تخصص دارند باید expand کنند.

2028

Edge DL به بلوغ می‌رسد — مدل‌هایی که روی موبایل و IoT device بدون cloud اجرا می‌شوند. تخصص در TinyML و hardware-aware design ارزش چند برابر می‌شود.

2030

مرز بین DL Engineer و AI Scientist از بین می‌رود. همه باید هم کد بنویسند هم تحقیق کنند. حقوق median برای این نقش در آمریکا به $300k+ می‌رسد.

ریسک‌های واقعی

بزرگ‌ترین ریسک برای مهندسان DL، commoditization مهارت‌های سطح پایین است. AutoML و no-code platforms کارهایی که قبلاً نیاز به مهندس DL داشت را ساده‌تر می‌کنند. اما در عوض، تقاضا برای مهندسانی که مدل‌های بنیادی جدید می‌سازند، آن‌ها را بهینه می‌کنند و در domain های خاص (پزشکی، حقوقی، صنعتی) fine-tune می‌کنند، بیشتر از همیشه است. کسانی که فقط از API استفاده می‌کنند، آسیب‌پذیرتر هستند.

ویدیوهای آموزشی

برای راهنمایی شخصی‌سازی‌شده مشاوره بگیرید