یادگیری ماشین (Machine Learning): مفاهیم پایه، مدل‌ها و الگوریتم‌های کلیدی

یادگیری ماشین

یادگیری ماشین (Machine Learning): مفاهیم پایه، مدل‌ها و الگوریتم‌های کلیدی

یادگیری ماشین (Machine Learning یا ML) زیرشاخه‌ای حیاتی از هوش مصنوعی (AI) و علم داده (Data Science) است که هدف آن ایجاد سیستم‌هایی است که بتوانند به‌طور خودکار، تنها با استفاده از داده‌ها، از تجربه بیاموزند و عملکرد خود را در انجام یک وظیفه خاص بهبود بخشند. این فناوری با شناسایی الگوها و استخراج دانش از حجم عظیمی از داده‌ها، انقلابی در تحلیل و تصمیم‌گیری ایجاد کرده است. اگر شما هم به یادگیری ماشین علاقه مند هستید، پیشنهاد می‌کنیم تا انتهای این مطلب همراه رسانه تخصصی سرور.آی‌آر باشید.

مفاهیم و اصطلاحات بنیادین (ML Core Concepts)

برای درک عمیق یادگیری ماشین، آشنایی با اجزای اصلی که یک مدل را تشکیل می‌دهند ضروری است:

۱. ساختار داده‌ها

  • داده (Data): مجموعه‌ای از اطلاعات که به عنوان منبع اصلی دانش مدل عمل می‌کند. کیفیت و کمیت داده، مستقیما تاثیر در موفقیت و دقت مدل دارد.
  • ویژگی (Feature/Attribute): متغیرهای ورودی که ماشین برای پیش‌بینی استفاده می‌کند. این ویژگی‌ها، خصوصیات هر نمونه هستند که در مدل‌سازی نقش دارند (مثلا متراژ خانه). انتخاب و اصلاح این ویژگی‌ها (که به آن مهندسی ویژگی می‌گویند)، یک مرحله مهم و زمان‌بر در توسعه مدل است.
  • برچسب (Label/Target Variable): خروجی یا مقداری که مدل قصد پیش‌بینی آن را دارد (مثلا قیمت خانه). در مسائل یادگیری نظارت شده، این برچسب‌ها در داده‌های آموزشی موجود هستند.

۲. فرایند یادگیری و بهینه‌سازی

  • مدل (Model): تابعی ریاضی که الگوریتم، پس از آموزش، برای تبدیل ویژگی‌های ورودی به خروجی مورد انتظار، ایجاد می‌کند. این مدل، در حقیقت همان دانش استخراج شده از داده‌ها است.
  • آموزش (Training): فرآیند تنظیم پارامترهای داخلی مدل، با استفاده از داده‌های آموزشی، تا مدل بتواند بهترین پیش‌بینی ممکن را انجام دهد.
  • تابع هزینه (Cost/Loss Function): یک معیار عددی که میزان خطای مدل را اندازه‌گیری می‌کند. در طول آموزش، هدف الگوریتم کمینه‌سازی این مقدار است تا خطا به حداقل برسد.
  • بهینه‌ساز (Optimizer): الگوریتم‌هایی (مانند گرادیان کاهشی) که برای به‌روزرسانی پارامترهای مدل در جهت کمینه کردن تابع هزینه به کار می‌روند.
یادگیری ماشین و ai

پارادایم‌های اصلی یادگیری ماشین (ML Approaches)

الگوریتم‌های ML بر اساس نوع داده‌های ورودی و روشی که برای یادگیری به کار می‌برند، به سه دسته اصلی تقسیم می‌شوند:

۱. یادگیری نظارت شده (Supervised Learning)

این رویکرد زمانی استفاده می‌شود که داده‌ها برچسب‌دار هستند و مدل یاد می‌گیرد چگونه ورودی‌ها را به خروجی‌های صحیح تبدیل کند.

دسته‌بندی (Classification):

  • هدف: پیش‌بینی یک خروجی گسسته یا دسته.
  • مثال: تشخیص اینکه آیا یک ایمیل «هرزنامه» است یا «عادی»، یا اینکه یک تومور «سرطانی» است یا «خوش‌خیم».

رگرسیون (Regression):

  • هدف: پیش‌بینی یک مقدار عددی پیوسته.
  • مثال: پیش‌بینی دقیق قیمت یک ملک یا میزان مصرف سوخت یک خودرو.

۲. یادگیری بدون نظارت (Unsupervised Learning)

در این مدل، ماشین تنها با داده‌های بدون برچسب مواجه است و باید به تنهایی ساختارها، خوشه‌ها یا الگوهای پنهان در داده‌ها را کشف کند.

خوشه‌بندی (Clustering):

  • هدف: گروه‌بندی نقاط داده مشابه به یکدیگر.
  • کاربرد: تقسیم‌بندی مشتریان یک شرکت به گروه‌های مختلف بر اساس رفتار خرید برای هدف‌گذاری تبلیغات.

کاهش ابعاد (Dimensionality Reduction):

  • هدف: کاهش تعداد ویژگی‌های ورودی (ابعاد) بدون از دست دادن اطلاعات مهم.
  • کاربرد: ساده‌سازی مدل‌ها و تجسم‌سازی داده‌های پیچیده (مانند استفاده از تکنیک تحلیل مؤلفه‌های اصلی یا PCA).

۳. یادگیری تقویتی (Reinforcement Learning – RL)

یادگیری از طریق تعامل با یک محیط انجام می‌شود. یک عامل در محیط قرار می‌گیرد، عملی را انجام می‌دهد و در ازای آن پاداش یا تنبیه می‌گیرد. هدف، یادگیری بهترین سیاست برای به حداکثر رساندن پاداش تجمعی بلندمدت است.

  • کاربردها: آموزش رباتیک برای انجام وظایف فیزیکی، هوش مصنوعی بازی‌های پیچیده و توسعه سیستم‌های کنترل خودکار.
الگوریتم های پر کاربرد یادگیری ماشین

الگوریتم‌های پرکاربرد یادگیری ماشین

انتخاب الگوریتم مناسب‌ترین تاثیر را بر نتیجه نهایی دارد و به نوع مسئله و ویژگی‌های داده بستگی دارد.

الف) الگوریتم‌های اصلی یادگیری نظارت شده

  • رگرسیون خطی و لجستیک:

رگرسیون خطی: یک مدل آماری ساده است که با فرض یک رابطه خطی، تلاش می‌کند بهترین خط را برای پیش‌بینی یک خروجی پیوسته پیدا کند.

رگرسیون لجستیک: یک الگوریتم دسته‌بندی است که از یک تابع غیرخطی برای تخمین احتمال خروجی‌های دودویی استفاده می‌کند و در تشخیص بله/خیر کاربرد دارد.

  • درخت تصمیم (Decision Tree) و جنگل تصادفی (Random Forest):

درخت تصمیم: ساختاری شبیه فلوچارت که بر اساس مجموعه‌ای از قوانین ساده، داده‌ها را تقسیم‌بندی می‌کند. این مدل‌ها به دلیل شفافیت قوانین، بسیار قابل تفسیر هستند.

جنگل تصادفی: یک روش گروهی (Ensemble) قدرتمند که عملکرد خود را با ترکیب پیش‌بینی‌های تعداد زیادی درخت تصمیم مستقل بهبود می‌بخشد تا دقت بالاتر و پایداری بیشتری داشته باشد.

  • ماشین بردار پشتیبان (Support Vector Machine – SVM):

عملکرد: برای دسته‌بندی به کار می‌رود. این الگوریتم با یافتن یک ابرصفحه (مرز تصمیم‌گیری) که کلاس‌ها را با بیشترین حاشیه از هم جدا کند، کار می‌کند. این کار باعث می‌شود مدل تعمیم‌پذیری بهتری داشته باشد.

  • نزدیک‌ترین همسایگان (K-Nearest Neighbors – KNN):

عملکرد: یک الگوریتم مبتنی بر نمونه است. برای پیش‌بینی یک نمونه جدید، به تعدادی از نزدیک‌ترین همسایگان خود در داده‌های آموزشی نگاه می‌کند و با رأی‌گیری آن‌ها، کلاس یا مقدار نهایی را تعیین می‌کند.

ب) الگوریتم‌های اصلی یادگیری بدون نظارت

خوشه‌بندی کی-میانگین (K-Means Clustering):

  • عملکرد: داده‌ها را به تعدادی گروه مشخص تقسیم می‌کند. ابتدا، الگوریتم به صورت تصادفی تعدادی از نقاط را به عنوان مرکز خوشه‌ها انتخاب می‌کند. سپس، هر نقطه داده به نزدیک‌ترین مرکز خوشه خود اختصاص داده می‌شود و این مراکز به طور تکراری بر اساس میانگین نقاط آن خوشه به‌روزرسانی می‌شوند.

تحلیل مؤلفه‌های اصلی (PCA):

  • عملکرد: این یک تکنیک کاهش ابعاد خطی است که با تبدیل مجموعه متغیرهای اصلی به مجموعه‌ای کوچک‌تر از متغیرهای جدید به نام مؤلفه‌های اصلی، بیشترین واریانس (تغییرپذیری) داده‌ها را حفظ می‌کند.
چالش های یادگیری ماشین

ارزیابی و چالش‌های مدل‌سازی

پس از ساخت مدل، ارزیابی دقیق عملکرد آن و مدیریت چالش‌های رایج برای اطمینان از قابلیت تعمیم مدل حیاتی است.

۱. معیارهای ارزیابی کلیدی

ارزیابی باید با استفاده از مجموعه داده‌ای انجام شود که مدل قبلا ندیده است (مجموعه آزمایشی).

برای مسائل دسته‌بندی:

  • دقت (Accuracy): درصد نمونه‌هایی که مدل به درستی پیش‌بینی کرده است.
  • صحت (Precision): از بین تمام مواردی که مدل مثبت پیش‌بینی کرده، چند درصد واقعا مثبت بوده‌اند.
  • بازیابی (Recall): از بین تمام نمونه‌های مثبت واقعی، چند درصد توسط مدل به درستی پیدا شده‌اند.

برای مسائل رگرسیون:

  • خطای میانگین مربع (MSE): خطاهای بزرگ را به شدت جریمه می‌کند.
  • میانگین خطای مطلق (MAE): خطای میانگین را به صورت مستقیم و قابل تفسیر بر حسب واحد اصلی داده اندازه‌گیری می‌کند.

۲. مدیریت تنظیم و تعمیم مدل

دو چالش اصلی در تعمیم مدل:

بیش‌تنظیمی یا حفظ جزئیات(Overfitting):

  • توضیح: مدل بیش از حد جزئیات و نویزهای خاص داده‌های آموزشی را یاد می‌گیرد. در نتیجه، در پیش‌بینی داده‌های جدید عملکرد ضعیفی دارد.
  • راه‌حل: استفاده از داده‌های بیشتر، کاهش پیچیدگی مدل، یا اعمال تکنیک‌های تنظیم (Regularization).

کم‌تنظیمی یا یادگیری ناکافی (Underfitting):

  • توضیح: مدل به دلیل سادگی بیش از حد، نتوانسته است الگوهای اصلی موجود در داده‌ها را به‌درستی یاد بگیرد.
  • راه‌حل: استفاده از الگوریتم‌های قوی‌تر و پیچیده‌تر، یا افزودن ویژگی‌های بیشتر به مجموعه داده.

۳. مهندسی ویژگی (Feature Engineering)

مهندسی ویژگی فرآیند حیاتی انتخاب، ترکیب و تبدیل ویژگی‌های خام به متغیرهایی است که به مدل اجازه می‌دهد الگوها را بهتر ببیند. موفقیت یک مدل اغلب بیشتر به کیفیت و خلاقیت در این مرحله وابسته است تا پیچیدگی صرف الگوریتم.

 

یادگیری عمیق

یادگیری عمیق (Deep Learning) : پیچیدگی و قدرت

یادگیری عمیق زیرمجموعه‌ای تخصصی از یادگیری ماشین است که از شبکه‌های عصبی مصنوعی با چندین لایه پنهان استفاده می‌کند. این شبکه‌ها می‌توانند به‌طور خودکار، ویژگی‌های سطح بالا را مستقیما از داده‌های خام (مانند تصاویر یا متن) استخراج کنند و نیاز به مرحله زمان‌بر مهندسی ویژگی دستی را از بین ببرند. معماری‌های اصلی این حوزه شامل شبکه‌های عصبی کانولوشنی (CNNs) برای بینایی ماشین و شبکه‌های عصبی بازگشتی (RNNs) و ترانسفورمرها برای پردازش زبان طبیعی هستند. قدرت یادگیری عمیق در توانایی آن برای حل مسائلی نهفته است که برای الگوریتم‌های سنتی بسیار پیچیده و غیرقابل حل بوده‌اند.

۱. شبکه‌های عصبی و ساختار آن‌ها

  • شبکه عصبی (Neural Network): مجموعه‌ای از گره‌ها (نورون‌ها) که در لایه‌های مختلف سازمان‌دهی شده‌اند. هر اتصال بین گره‌ها دارای یک وزن است که در طول آموزش تنظیم می‌شود.
  • لایه ورودی (Input Layer): لایه‌ای که داده‌های خام (ویژگی‌ها) را دریافت می‌کند.
  • لایه‌های پنهان (Hidden Layers): لایه‌های میانی که محاسبات پیچیده را انجام می‌دهند و وظیفه استخراج الگوها و ویژگی‌های سطح بالا از داده‌ها را بر عهده دارند. عمق این لایه‌هاست که صفت «عمیق» را به یادگیری عمیق می‌دهد.
  • لایه خروجی (Output Layer): لایه‌ای که نتیجه نهایی (پیش‌بینی یا دسته‌بندی) را ارائه می‌دهد.

۲. الگوریتم‌های کلیدی یادگیری عمیق

  • شبکه‌های عصبی کانولوشنی (Convolutional Neural Networks – CNNs): این شبکه‌ها برای کار با داده‌های شبکه‌ای مانند تصاویر طراحی شده‌اند. از لایه‌های کانولوشن برای شناسایی الگوهای محلی (مثل لبه‌ها و شکل‌ها) استفاده می‌کنند و در بینایی ماشین انقلاب ایجاد کرده‌اند.
  • شبکه‌های عصبی بازگشتی (Recurrent Neural Networks – RNNs): این شبکه‌ها دارای حلقه‌های بازخورد هستند که به آن‌ها اجازه می‌دهد اطلاعات گذشته را حفظ کنند و برای داده‌های متوالی یا سری‌های زمانی مناسب هستند (مانند متن، گفتار یا داده‌های بورس).
  • ترانسفورمرها (Transformers): جدیدترین و قدرتمندترین معماری‌ها که بر مکانیسم توجه (Attention) متکی هستند و برای مدل‌های زبان بزرگ (LLMs) و کارهای پردازش زبان طبیعی (NLP) ضروری هستند. در پیاده سازی مدل‌های زبانی بزرگ ترنسفورمر، از یک راهکار پردازشی هیبرید استفاده می‌شود. در این شرایط، اکثر پردازش‌های ساده مانند اسکریپت‌های وب، درخواست‌های دیتابیس و سرور و …، همگی با خرید سرور اختصاصی مناسب هوش مصنوعی پردازش می‌شوند و تنها پردازش‌های مرتبط با هوش مصنوعی، توسط سرور گرافیکی انجام می‌شود.

سخت‌افزار و زیرساخت مورد نیاز

مدل‌های پیچیده یادگیری ماشین، به‌ویژه مدل‌های یادگیری عمیق، نیازمند قدرت محاسباتی بسیار زیادی هستند. مدیریت داده‌های حجیم و انجام محاسبات ماتریسی سنگین، نیاز به زیرساخت‌های تخصصی دارد.

۱. نقش پردازنده‌های گرافیکی (GPUs)

  • محاسبات موازی: هسته اصلی آموزش یادگیری ماشین، ضرب و جمع ماتریسی است. پردازنده‌های گرافیکی (Graphics Processing Units) به دلیل ساختار خود، که شامل هزاران هسته کوچک است، می‌توانند این محاسبات را به صورت موازی انجام دهند و مدل‌ها را تا ده‌ها برابر سریع‌تر از پردازنده‌های مرکزی (CPUs) آموزش دهند. در حقیقت بدون سرور گرافیکی مناسب هوش مصنوعی و در مقیاس بالا، امکان تمرین مدل‌های هوش مصنوعی عملا وجود ندارد و یا زمان آن، بیشتر از حد قابل قبولی می‌شود.
  • تسریع آموزش: بدون استفاده از GPUها، آموزش یک مدل پیچیده عمیق می‌تواند هفته‌ها یا ماه‌ها طول بکشد، اما با استفاده از آن‌ها، این زمان به ساعت‌ها یا روزها کاهش می‌یابد.

۲. اهمیت سرور اختصاصی گرافیکی

  • سرور اختصاصی گرافیکی: این سرورها سیستم‌های قدرتمندی هستند که به‌طور خاص برای میزبانی و استفاده از یک یا چند پردازنده گرافیکی قدرتمند طراحی شده‌اند.
  • عملکرد بالا: این سرورها دارای توان خنک‌کنندگی و منبع تغذیه کافی برای تحمل بار کاری مداوم GPUها هستند و برای تیم‌های علم داده یا پروژه‌های بزرگ هوش مصنوعی که نیاز به آموزش مکرر مدل‌ها دارند، یک راهکار ضروری محسوب می‌شوند.
  • انعطاف‌پذیری و کنترل: استفاده از یک سرور اختصاصی گرافیکی، کنترل کامل بر محیط نرم‌افزاری (مانند سیستم‌عامل و درایورها) و سخت‌افزاری را فراهم می‌کند، که برای بهینه‌سازی عملکرد مدل‌ها حیاتی است.

روندهای آتی و کاربردهای نوین ML

حوزه یادگیری ماشین به‌طور پیوسته در حال رشد است و روندهای جدیدی را به خود می‌بیند که مرزهای هوش مصنوعی را جابجا می‌کنند.

۱. حوزه‌های پیشرفته کاربرد

  • هوش مصنوعی مولد (Generative AI): این حوزه شامل مدل‌هایی است که می‌توانند محتوای جدید، واقعی و خلاقانه تولید کنند، مانند تولید تصویر از متن، ساخت موسیقی یا نوشتن مقالات با کیفیت بالا.
  • پردازش زبان طبیعی (Natural Language Processing – NLP): مدل‌هایی که درک، تولید و تعامل انسان و ماشین را با استفاده از زبان انسانی ممکن می‌سازند (مانند چت‌بات‌ها و دستیارهای صوتی).
  • تشخیص ناهنجاری (Anomaly Detection): استفاده از ML برای شناسایی الگوهای غیرعادی در داده‌ها، که کاربرد حیاتی در کشف تقلب مالی یا عیب‌یابی تجهیزات صنعتی دارد.

۲. یادگیری فدرال و اخلاق هوش مصنوعی

  • یادگیری فدرال (Federated Learning): روشی است که امکان آموزش یک مدل مشترک را روی چندین مجموعه داده محلی و غیرمتمرکز فراهم می‌کند. مزیت اصلی این روش، حفظ حریم خصوصی داده‌ها است، زیرا داده‌ها هرگز از دستگاه‌های کاربران خارج نمی‌شوند.
  • اخلاق هوش مصنوعی (AI Ethics): با افزایش قدرت مدل‌ها، توجه به مسائلی مانند عدالت، شفافیت و پاسخگویی در تصمیم‌گیری‌های هوش مصنوعی اهمیت فزاینده‌ای پیدا کرده است تا از سوگیری (Bias) در الگوریتم‌ها جلوگیری شود.

جمع‌بندی نهایی: یادگیری ماشین، سنگ بنای هوش مصنوعی

یادگیری ماشین (ML) هسته اصلی هوش مصنوعی مدرن است که به سیستم‌ها امکان می‌دهد به‌طور خودکار از داده‌ها بیاموزند و عملکرد خود را بهبود بخشند. این حوزه بر اساس مفاهیم بنیادین ویژگی‌ها، برچسب‌ها و مدل‌ها بنا شده و فرآیند آن همواره در تلاش برای تنظیم مناسب بین داده‌های آموزشی و قابلیت تعمیم در دنیای واقعی است.

مدل‌های ML عمدتا در سه پارادایم اصلی قرار می‌گیرند: یادگیری نظارت شده (برای دسته‌بندی و رگرسیون)، یادگیری بدون نظارت (برای خوشه‌بندی و کاهش ابعاد) و یادگیری تقویتی (برای تعامل و تصمیم‌گیری‌های متوالی).

تکامل این حوزه به یادگیری عمیق (Deep Learning) رسیده است، جایی که شبکه‌های عصبی با لایه‌های متعدد، به‌ویژه با پشتیبانی زیرساخت‌های قدرتمندی مانند سرور اختصاصی گرافیکی (GPU)، قادر به حل پیچیده‌ترین مسائل بینایی ماشین و پردازش زبان طبیعی هستند. در نهایت، موفقیت یک مدل ML علاوه بر انتخاب الگوریتم مناسب، به مدیریت چالش‌هایی مانند بیش‌تنظیمی و کم‌تنظیمی و کیفیت بالای مهندسی ویژگی‌ها وابسته است.

سوالات متداول

01یادگیری ماشین دقیقاً چقدر با هوش مصنوعی تفاوت دارد؟

یادگیری ماشین زیرمجموعه‌ای از هوش مصنوعی است. هوش مصنوعی یک مفهوم گسترده است که هدف آن ایجاد ماشین‌هایی با توانایی تفکر یا عمل هوشمندانه است؛ اما یادگیری ماشین ابزار و روشی است که ماشین‌ها را قادر می‌سازد تا با یادگیری از داده‌ها به آن هوشمندی دست یابند.

02هدف اصلی تابع هزینه در مدل یادگیری ماشین چیست؟

تابع هزینه ابزاری برای اندازه‌گیری میزان خطای مدل است. هدف الگوریتم در طول فرآیند آموزش، کمینه‌سازی این تابع است تا پیش‌بینی‌های مدل تا حد امکان به مقادیر واقعی نزدیک شوند.

03مهندسی ویژگی چیست و چرا مهم است؟

مهندسی ویژگی فرآیند انتخاب، تبدیل یا ایجاد متغیرهای ورودی جدید از داده‌های خام است. این مرحله حیاتی است زیرا موفقیت یک مدل اغلب بیشتر به کیفیت و مناسب بودن ویژگی‌ها بستگی دارد تا پیچیدگی صرف الگوریتم.

04بیش‌تنظیمی (Overfitting) چه مشکلی را ایجاد می‌کند؟

بیش‌تنظیمی زمانی رخ می‌دهد که مدل الگوهای بسیار جزئی و نویزهای تصادفی موجود در داده‌های آموزشی را حفظ می‌کند. نتیجه این است که مدل روی داده‌های آموزشی عملکردی عالی، اما روی داده‌های جدید و ندیده عملکردی بسیار ضعیف و غیرقابل تعمیم دارد.

05تفاوت اصلی بین دسته‌بندی و رگرسیون در چیست؟

دسته‌بندی برای پیش‌بینی یک خروجی گسسته یا دسته‌ای استفاده می‌شود (مانند تشخیص «بله» یا «خیر»). در حالی که رگرسیون برای پیش‌بینی یک خروجی پیوسته و عددی به کار می‌رود (مانند پیش‌بینی قیمت دقیق یک خانه).

06چرا مدل‌های یادگیری عمیق به پردازنده‌های گرافیکی (GPU) نیاز دارند؟

یادگیری عمیق شامل حجم عظیمی از محاسبات ماتریسی است. پردازنده‌های گرافیکی به دلیل ساختار هزاران هسته‌ای خود، می‌توانند این محاسبات را به صورت موازی انجام دهند، در نتیجه سرعت آموزش مدل‌های پیچیده را به صورت چشمگیری افزایش می‌دهند.

07شبکه‌های عصبی کانولوشنی (CNN) بیشتر برای چه نوع داده‌هایی استفاده می‌شوند؟

شبکه‌های عصبی کانولوشنی به‌طور خاص برای کار با داده‌های شبکه‌ای مانند تصاویر طراحی شده‌اند. ساختار آن‌ها به خوبی الگوهای مکانی مانند لبه‌ها و شکل‌ها را در داده‌های بصری شناسایی می‌کند و در حوزه بینایی ماشین کاربرد اساسی دارد.

 

08یادگیری بدون نظارت چه زمانی به کار می‌آید؟

یادگیری بدون نظارت زمانی استفاده می‌شود که داده‌ها فاقد برچسب خروجی هستند. این روش برای کشف ساختارهای پنهان، شناسایی گروه‌ها (خوشه‌بندی) یا فشرده‌سازی اطلاعات در مجموعه داده‌ها استفاده می‌شود.

09نقش یادگیری تقویتی در هوش مصنوعی چیست؟

یادگیری تقویتی به عامل هوشمند اجازه می‌دهد تا از طریق آزمون و خطا و تعامل با یک محیط، یاد بگیرد. عامل با دریافت پاداش یا تنبیه، سیاست بهینه خود را برای به حداکثر رساندن پاداش‌های بلندمدت می‌سازد. این روش در رباتیک و بازی‌های پیچیده کاربرد دارد.

10منظور از مجموعه داده آزمایشی چیست؟

مجموعه داده آزمایشی (Test Data) زیرمجموعه‌ای از داده‌ها است که مدل در طول آموزش هرگز آن را ندیده است. از این مجموعه به عنوان معیار نهایی و عینی برای ارزیابی عملکرد واقعی مدل و سنجش قابلیت تعمیم آن استفاده می‌شود.

نظرات کاربران

شما میتوانید دیدگاه خود را در مورد این مطلب با ما با اشتراک بگذارید.

logo
ثبت نام ناحیه کاربری ارسال تیکت راهنمای خرید
ناحیه کاربری
ثبت نامناحیه کاربریداشبورد ابریارسال تیکتتماس تلفنی
تماس با ما
مشاوره تلفنی 1779 | 79625000
واحد مارکتینگ داخلی 1
واحد مشتریان داخلی 2
مالی و اداری داخلی 3
منابع انسانی داخلی 4