مدل زبانی بزرگ (Large Language Model) چیست؟ آشنایی با انواع مدل‌های زبانی

مدل زبانی بزرگ LLM

مدل زبانی بزرگ (Large Language Model) یا به اختصار LLM، نوعی از مدل‌های هوش مصنوعی است که بر اساس معماری ترانسفورمر بنا شده و با استفاده از حجم عظیمی از داده‌های متنی (که اغلب شامل میلیاردها کلمه است) آموزش داده می‌شود. این مدل‌ها به دلیل توانایی‌های خارق‌العاده‌شان در درک، خلاصه‌سازی، ترجمه، و تولید متن شبیه به انسان، انقلابی در حوزه پردازش زبان طبیعی (NLP) ایجاد کرده‌اند. هسته اصلی LLMها در واقع تلاش برای پیش‌بینی کلمه بعدی در یک دنباله متنی معین است، که این کار منجر به یادگیری الگوهای پیچیده زبانی، ساختارهای نحوی، و دانش ضمنی دنیای واقعی می‌شود. تکامل این مدل‌ها نشان‌دهنده جهشی عظیم از مدل‌های آماری و مبتنی بر قانون به سوی سیستم‌های مبتنی بر یادگیری عمیق و مقیاس‌پذیر است.

مبانی معماری: ترانسفورمر و مکانیسم توجه

موفقیت LLMها به‌طور بنیادی به معرفی معماری ترانسفورمر در مقاله «Attention Is All You Need» در سال ۲۰۱۷ بازمی‌گردد. قبلا از آن، مدل‌هایی مانند RNN و LSTM به دلیل پردازش سریالی داده‌ها، با مشکل «وابستگی‌های طولانی‌مدت» و عدم توانایی در استفاده کامل از قدرت پردازش موازی GPUها مواجه بودند.

ساختار داخلی ترانسفورمر

معماری ترانسفورمر از دو بخش اصلی تشکیل شده است: رمزگذار (Encoder) که بر درک متن ورودی تمرکز دارد، و رمزگشا (Decoder) که وظیفه تولید متن خروجی را بر عهده دارد. هر دو بخش از بلوک‌هایی با معماری مشابه تشکیل شده‌اند که شامل دو زیرلایه اصلی هستند:

  • زیرلایه توجه چند-سر (Multi-Head Attention): این زیرلایه قلب ترانسفورمر است و به مدل اجازه می‌دهد تا روابط بین کلمات مختلف را درک کند.
  • زیرلایه شبکه عصبی پیش‌خور (Feed-Forward Network – FFN): یک شبکه عصبی کاملا متصل که به‌صورت مستقل روی هر موقعیت از دنباله ورودی عمل می‌کند.

مکانیسم توجه به خود (Self-Attention)

مکانیسم توجه به خود، به هر کلمه در دنباله ورودی اجازه می‌دهد تا به سایر کلمات همان دنباله «توجه» کند و ارتباط معنایی و نحوی آنها را درک کند. این مکانیسم از سه بردار اصلی استفاده می‌کند که از تعبیه (Embedding) کلمه ورودی مشتق می‌شوند:

  • بردار پرس‌وجو (Query – Q): نماینده کلمه‌ای که ما توجه آن را اندازه‌گیری می‌کنیم.
  • بردار کلید (Key – K): نماینده کلمه‌ای که توجه را به آن معطوف می‌کنیم.
  • بردار ارزش (Value – V): نماینده اطلاعاتی که در صورت مرتبط بودن کلید، استخراج می‌شود.

نمره توجه از طریق ضرب نقطه‌ای Q در K محاسبه شده، سپس نرمال‌سازی شده (توسط تابع Softmax) و در نهایت در V ضرب می‌شود تا بردار خروجی توجه به دست آید. این فرآیند امکان درک وابستگی‌های معنایی دوربرد را بدون توجه به فاصله فیزیکی فراهم می‌کند. در واقع، این روش جایگزینی برای اتصالات سه‌بعدی متوالی RNNها فراهم می‌کند که تاثیر چشمگیری بر سرعت آموزش و قابلیت مقیاس‌پذیری دارد.

تعبیه موقعیتی (Positional Encoding)

از آنجا که ترانسفورمر به دلیل ماهیت توجه خودی، اطلاعات ترتیبی و موقعیت کلمات را به صورت ذاتی ندارد (برخلاف RNN/LSTM)، اطلاعات مربوط به موقعیت هر کلمه در دنباله، باید به صورت دستی اضافه شود. این کار توسط تعبیه موقعیتی (Positional Encoding) انجام می‌شود که بردارهایی را بر اساس توابع سینوسی و کسینوسی به بردار تعبیه کلمات اضافه می‌کند و بدین ترتیب اطلاعات مکانی را به مدل منتقل می‌نماید. این تکنیک حیاتی است زیرا تعیین می‌کند که کلمات در کجا و در چه ترتیبی در متن قرار دارند و درک صحیح ساختار جملات را ممکن می‌سازد.

مراحل تمرین مدل زبانی بزرگ

مراحل آموزش مدل و استفاده از زیرساخت مقیاس‌پذیر

آموزش LLMها یک فرآیند پیچیده و پرهزینه است که نیازمند قدرت محاسباتی فوق‌العاده‌ای است و به سه مرحله کلی تقسیم می‌شود.

پیش‌آموزش گسترده (Massive Pre-training)

این مرحله حیاتی‌ترین و پرهزینه‌ترین بخش است. مدل بر روی حجم عظیمی از داده‌های بدون برچسب (مثلا ترابایت‌ها داده متنی از اینترنت، کتاب‌ها، و مقالات) آموزش می‌بیند تا یک دانش زبانی و عمومی قوی کسب کند. وظایف اصلی در این مرحله عبارتند از:

  • مدل‌سازی زبان خودرگرسیون: در مدل‌های رمزگشا-محور (مانند GPT)، هدف، پیش‌بینی کلمه بعدی در دنباله با توجه به کلمات قبلی است.
  • مدل‌سازی زبان ماسک‌گذاری شده (MLM): در مدل‌های رمزگذار-محور (مانند BERT)، هدف، پیش‌بینی کلماتی است که به صورت تصادفی در متن پنهان یا ماسک‌گذاری شده‌اند.

انجام این حجم از محاسبات، مستلزم استفاده از سرور گرافیکی برای تمرین مدل زبانی با ده‌ها تا صدها واحد پردازش گرافیکی (GPU) رده بالا و حافظه متصل سریع است. این زیرساخت‌ها باید دارای اتصالات شبکه‌ای فوق سریع (مانند NVLink یا InfiniBand) باشند تا گلوگاه‌های ارتباطی بین GPUها کاهش یابد و داده‌ها و گرادیان‌ها بتوانند با حداکثر سرعت منتقل شوند. همچنین، تکنیک‌های پیشرفته‌ای مانند «Mixed Precision Training» که از ترکیب دقت‌های FP32 و FP16 استفاده می‌کند، برای کاهش مصرف حافظه و تسریع زمان آموزش به کار می‌روند.

تنظیم دقیق نظارت شده (Supervised Fine-tuning – SFT)

پس از پیش‌آموزش، مدل دارای دانش عمومی است اما در پیروی از دستورات خاص یا لحن‌های انسانی مهارت ندارد. در SFT، مدل با مجموعه‌ای کوچک‌تر اما بسیار باکیفیت از مثال‌های دستور/پاسخ که توسط انسان‌ها ایجاد شده، دوباره آموزش داده می‌شود تا توانایی دنبال کردن دستورالعمل‌ها (Instruction Following) را کسب کند. این مرحله تاثیر زیادی در تبدیل یک مدل صرفا «دانش محور» به یک «کمک‌کننده محاوره‌ای» دارد و معمولا مدل را به یک مدل «چت» یا «دستیار» تبدیل می‌کند. مجموعه داده‌های SFT شامل دستورات متنوع و پاسخ‌های نمونه، اغلب در قالب مکالمات چندمرحله‌ای، هستند.

یادگیری تقویتی از بازخورد انسانی (RLHF)

RLHF یکی از پیشرفته‌ترین روش‌ها برای همسوسازی (Alignment) مدل با ترجیحات و استانداردهای اخلاقی انسانی است و تاثیر مستقیمی بر بهبود کیفیت پاسخ‌ها دارد. این فرآیند شامل سه گام اصلی است:

  1. جمع‌آوری داده‌های مقایسه‌ای: برای یک دستور مشخص، مدل چندین پاسخ تولید می‌کند. سپس افراد پاسخ‌ها را بر اساس کیفیت، دقت، و مفید بودن رتبه‌بندی می‌کنند.
  2. آموزش مدل پاداش (Reward Model): یک مدل جداگانه (معمولا کوچک‌تر از LLM اصلی) با استفاده از این داده‌های رتبه‌بندی شده آموزش داده می‌شود تا پیش‌بینی کند که یک پاسخ مشخص از نظر انسانی چقدر امتیاز خواهد گرفت.
  3. بهینه‌سازی مدل LLM: مدل اصلی LLM با استفاده از الگوریتم‌های یادگیری تقویتی (مانند PPO – Proximal Policy Optimization)، تنظیم می‌شود تا پاسخ‌هایی تولید کند که امتیاز بیشتری از مدل پاداش کسب کنند. این مکانیسم تضمین می‌کند که خروجی مدل نه تنها صحیح باشد، بلکه با نیت و اصول اخلاقی انسانی همسو باشد و توهم‌زایی را کاهش دهد.

معماری‌های توزیع‌شده و مقیاس‌پذیری زیرساخت

برای مدیریت مدل‌های بسیار بزرگ (در مقیاس تریلیون پارامتر)، که وزن‌هایشان از حافظه یک GPU منفرد فراتر می‌رود، تکنیک‌های موازی‌سازی پیشرفته ضروری است.

  • موازی‌سازی داده (Data Parallelism): کپی‌های یکسان از مدل روی GPUهای مختلف قرار می‌گیرند و هر کدام روی زیرمجموعه‌ای از داده‌ها آموزش می‌بینند. گرادیان‌ها جمع‌آوری شده و میانگین‌گیری می‌شوند.
  • موازی‌سازی مدل (Model Parallelism): این شامل تقسیم اجزای مدل روی چندین GPU است:
  • موازی‌سازی تنسور (Tensor Parallelism): وزن‌های هر لایه (تنسورها) به صورت قطعه قطعه روی GPUهای مختلف توزیع می‌شوند.
  • موازی‌سازی خط لوله (Pipeline Parallelism): لایه‌های مختلف مدل به GPUهای مختلف اختصاص داده می‌شوند و داده‌ها به صورت پیوسته (Pipeline) بین آنها جریان می‌یابد.

برای مدیریت این حجم عظیم از داده و محاسبات در سطح جهانی، استفاده از سرور ابری که قابلیت تخصیص و آزادسازی منابع GPU را به صورت پویا داشته باشد، یک ضرورت انکارناپذیر است. این زیرساخت‌ها نه تنها انعطاف‌پذیری لازم را برای محققین فراهم می‌کنند، بلکه به آنها اجازه می‌دهند تا با تغییرات در اندازه مدل و حجم داده، هزینه‌های خود را مدیریت کنند.

دسته بندی مدل زبانی بزرگ

دسته‌بندی مدل‌های زبانی بزرگ بر اساس ساختار

LLMها را می‌توان بر اساس ساختار معماری ترانسفورمر آنها به سه دسته اصلی طبقه‌بندی کرد که هر کدام برای وظایف خاصی بهینه‌سازی شده‌اند.

مدل‌های رمزگشا-محور (Decoder-Only Models)

این مدل‌ها به دلیل استفاده انحصاری از بلوک‌های رمزگشا، که شامل یک لایه توجه خودی ماسک‌شده (Masked Self-Attention) هستند، بر تولید متن خودرگرسیون متمرکز هستند. ماسک‌گذاری تضمین می‌کند که در هر گام تولید، مدل فقط به کلمات تولید شده قبلی توجه کند و نه کلمات آینده (که هنوز تولید نشده‌اند). به همین دلیل، آنها برای تولید پیوسته و خلاقانه متن برتری دارند.

  • مثال‌های کلیدی: سری GPT (Generative Pre-trained Transformer) از OpenAI، مدل‌های LLaMA از متا، و Falcon.
  • کاربرد اصلی: چت‌بات‌ها، تولید محتوای طولانی (مقاله، داستان، ایمیل)، و کدنویسی خودکار.

مدل‌های رمزگذار-محور (Encoder-Only Models)

این مدل‌ها فقط شامل بلوک‌های رمزگذار هستند و از مکانیزم توجه خودی دوطرفه (Bidirectional Self-Attention) استفاده می‌کنند. به این معنی که هنگام پردازش یک کلمه، مدل به تمامی کلمات قبلی و بعدی در دنباله ورودی توجه می‌کند و یک درک جامع از کل زمینه ایجاد می‌کند.

  • مثال‌های کلیدی: BERT (Bidirectional Encoder Representations from Transformers) و RoBERTa.
  • کاربرد اصلی: طبقه‌بندی متن (مثلا تحلیل احساسات)، پاسخ به سؤالات، استخراج موجودیت‌های نام‌دار (NER) و خلاصه‌سازی استخراجی. این مدل‌ها به دلیل عدم قابلیت تولید متن طولانی، معمولا برای وظایف تحلیلی استفاده می‌شوند.

مدل‌های رمزگذار-رمزگشا (Encoder-Decoder Models)

این مدل‌ها هر دو بخش را شامل می‌شوند و برای وظایف تبدیل متن به متن (Sequence-to-Sequence) بهینه‌سازی شده‌اند. رمزگذار متن ورودی را می‌خواند و نمایش معنایی آن را فشرده می‌کند، سپس رمزگشا از این نمایش فشرده (Context Vector) برای تولید دنباله خروجی استفاده می‌کند. اتصالات توجه در رمزگشا علاوه بر توجه خودی ماسک‌شده، به خروجی رمزگذار نیز توجه می‌کنند.

  • مثال‌های کلیدی: T5 (Text-to-Text Transfer Transformer) و BART.
  • کاربرد اصلی: ترجمه ماشینی، خلاصه‌سازی (انتزاعی و استخراجی)، و بازنویسی متن.

تکنیک‌های کاهش هزینه و بهینه‌سازی (Efficiency and Optimization)

هزینه هنگفت اجرای مدل‌های بزرگ (به ویژه در مرحله استنتاج یا Inference) نیاز به توسعه تکنیک‌هایی برای کاهش مصرف منابع بدون تاثیر قابل ملاحظه بر دقت را ایجاد کرده است.

کوانتیزاسیون (Quantization)

این روش شامل کاهش دقت عددی (Precision) پارامترهای مدل است. معمولا مدل‌ها با دقت ۳۲ بیت ممیز شناور (FP32) آموزش داده می‌شوند، اما می‌توانند در زمان استنتاج به دقت‌های پایین‌تر مانند ۱۶ بیت (FP16/BF16)، ۸ بیت (Int8) یا حتی ۴ بیت (Int4) کوانتیزه شوند. این کار حجم حافظه مورد نیاز و زمان استنتاج را به شدت کاهش می‌دهد، زیرا عملیات روی اعداد کوچک‌تر سریع‌تر انجام می‌شود. حفظ دقت بالا در کوانتیزاسیون‌های بسیار پایین (مثلا ۴ بیتی) یکی از چالش‌های اصلی این حوزه است.

تقطیر دانش (Knowledge Distillation)

در این تکنیک، یک مدل بزرگ و پیچیده (مدل «معلم») برای آموزش یک مدل کوچک‌تر (مدل «دانش‌آموز») استفاده می‌شود. مدل دانش‌آموز به جای یادگیری مستقیم از داده‌های آموزشی اصلی، تلاش می‌کند تا توزیع‌های احتمالی خروجی مدل معلم را تقلید کند. این امر باعث می‌شود که مدل کوچک، بسیاری از دانش و عملکرد مدل بزرگ را با هزینه محاسباتی بسیار کمتر به ارث ببرد.

تنظیم دقیق با پارامترهای کارآمد (Parameter-Efficient Fine-Tuning – PEFT)

PEFT مجموعه‌ای از تکنیک‌هاست که برای تنظیم دقیق مدل‌های بزرگ، تنها کسری کوچک از پارامترهای مدل را به روزرسانی می‌کند. این روش‌ها به طور چشمگیری هزینه‌های محاسباتی و حافظه مورد نیاز برای تنظیم دقیق (SFT) را کاهش می‌دهند. شناخته‌شده‌ترین تکنیک در این زمینه، LoRA (Low-Rank Adaptation) است که به جای به‌روزرسانی تمام وزن‌های مدل، ماتریس‌های کم‌رتبه (Low-Rank Matrices) کوچکی را به لایه‌های ترانسفورمر اضافه می‌کند و فقط این ماتریس‌های کوچک را آموزش می‌دهد. این کار حافظه مورد نیاز را چندین برابر کاهش می‌دهد و امکان شخصی‌سازی LLMها را روی سخت‌افزارهای استاندارد فراهم می‌کند.

چالش های مدل زبانی بزرگ

چالش‌های اخلاقی و فنی مدل‌های زبانی بزرگ

LLMها با وجود پتانسیل عظیم، چالش‌های جدی‌ای را به همراه دارند که موفقیت بلندمدت و پذیرش عمومی آنها را تاثیر می‌گذارد.

توهم (Hallucination)

یکی از جدی‌ترین مشکلات LLMها توهم یا «ساختن» اطلاعات نادرست است که با لحنی مطمئن بیان می‌شود. این پدیده از ماهیت آماری مدل نشأت می‌گیرد که به جای دسترسی به «حقیقت»، صرفا به دنبال تولید محتمل‌ترین کلمه بعدی بر اساس داده‌های آموزشی است. این چالش در کاربردهای حساس مانند پزشکی، حقوق و امور مالی یک نگرانی بزرگ محسوب می‌شود. روش‌هایی مانند بازیابی تقویت‌شده (Retrieval-Augmented Generation – RAG) که مدل را مجبور به استناد به منابع خارجی واقعی می‌کند، برای کاهش این پدیده استفاده می‌شوند.

سوگیری و تعصب (Bias and Fairness)

LLMها سوگیری‌های موجود در داده‌های آموزشی خود (که اغلب شامل سوگیری‌های نژادی، جنسیتی، فرهنگی یا سیاسی در اینترنت است) را جذب کرده و در خروجی‌های خود بازتاب می‌دهند. این می‌تواند منجر به پاسخ‌های تبعیض‌آمیز یا تقویت کلیشه‌های مضر شود. همسوسازی اخلاقی (Ethical Alignment) از طریق RLHF تا حدودی می‌تواند این مشکل را کاهش دهد، اما حذف کامل سوگیری به دلیل پیچیدگی داده‌های آموزشی کار آسانی نیست.

امنیت مدل و حملات متخاصمانه (Adversarial Attacks)

LLMها در برابر حملات متخاصمانه آسیب‌پذیر هستند. مهاجم می‌تواند با اعمال تغییرات جزئی و نامحسوس در ورودی (Prompt)، مدل را مجبور به تولید محتوای مضر، خارج از دستورالعمل‌های ایمنی، یا افشای داده‌های آموزشی کند. روش‌های دفاعی پیچیده‌ای مانند فیلترینگ ورودی و آموزش متخاصمانه (Adversarial Training) برای محافظت از مدل‌ها در حال توسعه هستند.

آینده و تحولات پیش روی LLMها

آینده LLMها در چندین مسیر کلیدی در حال حرکت است که هر کدام حوزه جدیدی از کاربردها را باز می‌کنند.

مدل‌های چندوجهی (Multimodal Models)

نسل بعدی LLMها محدود به متن نیستند. مدل‌های چندوجهی می‌توانند ورودی‌های مختلف (متن، تصویر، صدا، ویدئو) را درک کرده و خروجی‌هایی در همین فرمت‌ها یا ترکیب آن‌ها تولید کنند. مثلا، یک مدل می‌تواند تصویری را ببیند و نه تنها آن را شرح دهد، بلکه بر اساس آن شرح یک داستان بنویسد. مدل‌هایی مانند GPT-4V (بینایی) یا مدل‌هایی که برای درک زبان گفتاری آموزش دیده‌اند، نمونه‌هایی از این جهش هستند.

عامل‌های هوش مصنوعی (AI Agents)

مدل‌های زبانی در حال تبدیل شدن به «عامل‌ها» یا «نماینده‌های» هوش مصنوعی هستند. عامل‌ها تنها به تولید متن بسنده نمی‌کنند، بلکه می‌توانند تصمیم‌گیری کنند، برنامه‌ریزی چندمرحله‌ای انجام دهند، از ابزارهای خارجی (مانند مرورگرهای وب، ماشین‌حساب، یا رابط‌های برنامه‌نویسی) استفاده کنند و اقدامات مستقلانه‌ای را در محیط‌های دیجیتال انجام دهند. این مفهوم راه را برای اتوماسیون پیچیده وظایف باز می‌کند.

مدل‌های کوچک زبانی (Small Language Models – SLMs)

با وجود سلطه مدل‌های بسیار بزرگ، روند توسعه مدل‌های کوچک و کارآمدتر (SLMs) نیز رو به رشد است. این مدل‌ها که معمولا کمتر از ۱۰ میلیارد پارامتر دارند، به طور خاص برای اجرای سریع روی دستگاه‌های لبه (Edge Devices) یا در سرورهای با منابع محدود طراحی شده‌اند. هدف، ارائه عملکردی نزدیک به مدل‌های بزرگ در وظایف خاص، با صرف هزینه و انرژی بسیار کمتر است. این تحول تاثیر بسیار مهمی بر دسترسی عمومی و خصوصی‌سازی LLMها خواهد داشت.

سوالات متداول

01مدل زبانی بزرگ (LLM) چقدر از مغز انسان تقلید می‌کند؟

LLMها در سطح معماری و عملکرد، الهام‌گرفته از شبکه‌های عصبی زیستی هستند، اما ساختار و عملکرد آن‌ها کاملا متفاوت است. آنها صرفا یک سیستم آماری پیچیده برای پردازش و تولید زبان هستند و هیچ آگاهی، درک واقعی از دنیا یا احساسات شبیه به مغز انسان ندارند.

02آیا LLMها واقعا می‌توانند «فکر» کنند؟

خیر. LLMها ماشین‌های پیش‌بینی کلمه بعدی هستند و توانایی «فکر کردن» به معنای آگاهی، استدلال استقرایی یا برنامه‌ریزی ذهنی مستقل را ندارند. آنچه به نظر می‌رسد استدلال است، در واقع بازتولید الگوهای استدلالی است که از داده‌های آموزشی گسترده آموخته‌اند.

03تفاوت بین LLM و هوش مصنوعی عمومی (AGI) چیست؟

LLM یک ابزار تخصصی هوش مصنوعی است که بر حوزه زبان متمرکز است. در مقابل، هوش مصنوعی عمومی (AGI) به سیستمی اشاره دارد که می‌تواند هر کار فکری را که انسان قادر به انجام آن است (مانند حل مسائل پیچیده، خلاقیت در حوزه‌های مختلف، و یادگیری از تجربیات جدید) انجام دهد. LLMها گامی در مسیر AGI هستند، اما خود AGI نیستند.

04چگونه می‌توان سوگیری در خروجی LLM را کاهش داد؟

سوگیری‌ها را می‌توان از طریق فرآیندهای همسوسازی مانند RLHF (یادگیری تقویتی از بازخورد انسانی) و همچنین فیلتر کردن دقیق داده‌های آموزشی کاهش داد. علاوه بر این، مهندسی سریع (Prompt Engineering) نیز می‌تواند برای هدایت مدل به سوی پاسخ‌های بی‌طرفانه کمک‌کننده باشد.

05چگونه مدل‌های زبانی بزرگ به سوالات تخصصی پاسخ می‌دهند؟

LLMها دانش مورد نیاز برای پاسخگویی را در طول فاز «پیش‌آموزش» با فشرده‌سازی اطلاعات از میلیاردها صفحه متن به پارامترهای مدل ذخیره می‌کنند. برای سوالات بسیار تخصصی یا جدید، معمولا از تکنیکی به نام RAG (Retrieval-Augmented Generation) استفاده می‌شود که به مدل اجازه می‌دهد قبل از پاسخگویی، اطلاعات لازم را از یک پایگاه دانش خارجی بازیابی کرده و به آن استناد کند.

06آیا برای استفاده از LLMها نیاز به مهارت برنامه‌نویسی است؟

برای استفاده از مدل‌های نهایی که به صورت محصولات کاربری (مثل چت‌بات‌ها) ارائه می‌شوند، خیر. اما برای تنظیم دقیق (Fine-tuning)، توسعه مدل‌های جدید، یا استفاده از رابط‌های برنامه‌نویسی (API)، آشنایی با زبان‌هایی مانند پایتون و مفاهیم یادگیری ماشین ضروری است.

نظرات کاربران

شما میتوانید دیدگاه خود را در مورد این مطلب با ما با اشتراک بگذارید.

logo
ثبت نام ناحیه کاربری ارسال تیکت راهنمای خرید
ناحیه کاربری
ثبت نامناحیه کاربریداشبورد ابریارسال تیکتتماس تلفنی
تماس با ما
مشاوره تلفنی 1779 | 79625000
واحد مارکتینگ داخلی 1
واحد مشتریان داخلی 2
مالی و اداری داخلی 3
منابع انسانی داخلی 4