روش های مونت کارلو انقلابی در برنامه نویسی و مهندسی ایجاد کرده است.

این روش‌ها از قدرت تصادفی بودن استفاده می‌کنند، که آنها را به ابزارهای مؤثری تبدیل می‌کند که به توسعه‌دهندگان کمک می‌کند تا مشکلات دشوار را در بسیاری از زمینه‌ها حل کنند.

روش‌های مونت کارلو در فیزیک، مالی، مهندسی و بسیاری از زمینه‌های دیگر که روش‌های قطعی اغلب برای حل مسائل غیرعملی هستند، به کار گرفته شده‌اند.

با روش‌های مونت کارلو، شبیه‌سازی‌ها و محاسبات بسیار پیچیده کارآمد و مدیریت آسان شده‌اند.

انواع مختلفی از روش های مونت کارلو وجود دارد. اما همه آنها ایده استفاده از تصادفی برای تقریبی راه حل های مشکلات سخت را به اشتراک می گذارند. در این مقاله همه چیز را در مورد روش های مونت کارلو خواهید آموخت.

آنچه را پوشش خواهیم داد:

  • درک روش های مونت کارلو از طریق یک قیاس
  • روش های مونت کارلو چیست؟ راهنمای زبان انگلیسی ساده
  • کاربردهای دنیای واقعی روش های مونت کارلو
  • انواع روش های مونت کارلو
  • پیاده سازی عملی: روش های مونت کارلو در پایتون
  • آینده روش های مونت کارلو

پیش نیازها

برای درک همه چیز در این مقاله باید دانش اولیه ای از آمار داشته باشید.

اگر نیاز به مسواک زدن دارید روی مهارت های آماری خود را، توصیه می کنم این دوره freeCodeCamp را بررسی کنید:

درک روش های مونت کارلو از طریق یک قیاس

2
عکس از veeterzy روی پیکسل ها

تصور کنید می خواهید ارتفاع متوسط ​​درختان یک جنگل بزرگ را پیدا کنید.

اندازه گیری هر درخت غیرممکن و غیرعملی است. اما با روش های مونت کارلو می توان به صورت تصادفی چند نقطه از جنگل را انتخاب کرد و ارتفاع تمام درختان آن نقاط را اندازه گرفت.

با چندین بار انجام این کار و میانگین گیری همه این اندازه گیری ها، می توانیم میانگین ارتفاع همه درختان جنگل را تخمین بزنیم.

به این ترتیب، می توان با یافتن نمونه های کوچک و قابل مدیریت و میانگین گیری آنها، تخمین های بزرگی را در جمعیت های بزرگ و پیچیده انجام داد.

روش های مونت کارلو چیست؟ راهنمای زبان انگلیسی ساده

پیکسل ها
عکس از جاناتان پترسون روی پیکسل ها

روش‌های مونت کارلو نوعی الگوریتم رایانه‌ای هستند که از اندازه‌گیری‌های تصادفی مکرر برای به دست آوردن نتایج تقریبی برای یک مسئله معین استفاده می‌کنند.

آنها بخشی از حوزه ریاضی به نام تحلیل عددی هستند – استفاده از روش های تقریب برای یافتن راه حل هایی که روش های قطعی غیرعملی هستند.

ایده اصلی یافتن راه‌حل‌های تقریبی کافی برای حل مشکلاتی است که حل مستقیم آن‌ها خیلی سخت یا غیرممکن است.

این راه حل ها با به دست آوردن میانگین تعداد زیادی از نمونه های تصادفی انتخاب شده از جمعیت مسئله مورد نظر به دست می آیند.

به این ترتیب، در سیستم هایی با بسیاری از عوامل نامشخص و بخش های متقابل، روش های مونت کارلو قادر به ارائه بینشی در مورد روش رفتار و عملکرد سیستم هستند.

آنها مبتنی هستند روی ایده ریاضی قانون اعداد بزرگ در نظریه احتمال:

میانگین بسیاری از متغیرهای تصادفی مستقل و توزیع شده یکسان، در صورت وجود، به مقدار مورد انتظار همگرا می شود.

مشکل اصلی روش‌های مونت کارلو کمبود منابع کامپیوتری برای انجام شبیه‌سازی‌های زیاد برای رسیدن به نتایج خوب است.

پیشنهاد می‌کنیم بخوانید:  مقایسه Datetimes در پایتون با و بدون Timezones

چرا به آنها “مونته کارلو” می گویند؟

روش‌های مونت کارلو، که از کازینو موناکو در موناکو نامگذاری شده‌اند، توسط ریاضی‌دانان در خلال پروژه منهتن دهه ۱۹۴۰ ابداع شدند.

استانیسلاو اولام، جان فون نویمان و دیگران در این پروژه مشارکت داشتند که بمب هسته ای آمریکا را توسعه دادند.

این نام نشان دهنده تصادفی بودن شبیه سازی های آنها است، مشابه نتایج تصادفی در قمار کازینو.

کاربردهای دنیای واقعی روش های مونت کارلو

طراحی مدار در مهندسی برق

جریان
عکس از Pixabay

مدارها اجزای زیادی دارند. در اینجا به برخی از آنها اشاره می کنیم:

  • مقاومت ها
  • سلف ها
  • خازن ها
  • دیودها
  • ترانزیستورها

به دلیل دمای محیطی که در آن قرار دارند، گاهی اوقات مدارها ممکن است کار نکنند.

بنابراین، مهندسان چگونه مدارهای مقاوم در برابر دما را طراحی می کنند؟

به عبارت دیگر: چگونه می توانیم عملکرد یک مدار را در دماهای مختلف آزمایش کنیم؟

به لطف روش‌های مونت کارلو می‌توانیم فواصل زیادی از شرایط دمایی را شبیه‌سازی کنیم و اثرات آن‌ها را ببینیم روی اجزای مدار و میزان تاثیر آنها بر عملکرد مدار

از این طریق می توانیم داده ها را جمع آوری کنیم روی چگونه اجزاء باید تحت تنش های حرارتی مختلف عمل کنند.

به این ترتیب، ما می‌توانیم مدار را – چه برای تغییر طراحی مدار یا انتخاب اجزای مختلف – برای کار در بسیاری از شرایط محیطی بهینه کنیم.

طراحی موشک در مهندسی هوافضا

موشک
عکس از Pixabay

طراحی موشک شامل متغیرهای مختلفی است، مانند:

  • خواص مواد
  • نیروهای آیرودینامیکی
  • راندمان پیشرانه
  • شرایط محیطی.

روش‌های مونت کارلو امکان شبیه‌سازی‌های متعدد با خواص مواد مختلف، راندمان نیروی محرکه و متغیرهای طراحی بیشتر را فراهم می‌کنند.

این به درک عمیق رفتار موشک در شرایط مختلف کمک می کند.

در اصل، این روش تصادفی برای حل یک مشکل بزرگ در درک رفتار احتمالی عملکرد موشک کلیدی است، مانند:

  • مسیر حرکت
  • ثبات
  • تمامیت ساختاری

مهندسان با تجزیه و تحلیل اینکه چگونه این متغیرهای طراحی بر رفتار احتمالی معیارهای عملکرد مهم پرواز موشک تأثیر می‌گذارند، می‌توانند موشک‌ها را ایمن‌تر و قابل اعتمادتر کنند.

بهینه سازی پرتفوی مالی در امور مالی و سرمایه گذاری

دارایی، مالیه، سرمایه گذاری
عکس از energepic.com

در بهینه سازی پرتفوی مالی، بهترین ترکیب دارایی ها در یک سبد برای به حداکثر رساندن بازده و در عین حال به حداقل رساندن ریسک چیست؟

روش‌های مونت کارلو برای شبیه‌سازی میزان خوب بودن یک سبد در به حداکثر رساندن بازده و در عین حال به حداقل رساندن ریسک در شرایط مختلف بازار استفاده می‌شوند.

با ایجاد سناریوهای تصادفی بسیاری برای قیمت و بازده دارایی ها، بانک ها و موسسات مالی می توانند تحت شرایط مختلف، نتایج پرتفوی را بدانند و ریسک را مدیریت کنند.

به این ترتیب، می توان تصمیمات مبتنی بر داده را برای یافتن تعادل بین ریسک و پاداش اتخاذ کرد.

بررسی انواع مختلف روش های مونت کارلو

انواع مختلفی از روش های مونت کارلو وجود دارد. در اینجا برخی از مهمترین آنها آورده شده است:

مونت کارلو کلاسیک:

مونت کارلو کلاسیک از نمونه های تصادفی برای تخمین مقادیر و شبیه سازی سیستم ها استفاده می کند. برای کارهایی که یافتن راه‌حل‌های مستقیم دشوار است، مانند ادغام عددی، مفید است

مونت کارلو بیزی:

مونت کارلو بیزی تخمین ها را با استفاده از اطلاعات موجود با مشاهدات جدید برای پیش بینی های بهتر بهبود می بخشد.

این مونت کارلو بیزی نامیده می شود زیرا از قضیه بیز استفاده می کند.

قضیه بیز توسط ریاضیدان توماس بیز ایجاد شد و در نظریه احتمال بسیار مهم است.

ایده اصلی قضیه این است که باورهای موجود را با داده های جدید اصلاح کنید.

این روش زمانی ایده آل است که شما برخی اطلاعات موجود در مورد مشکل دارید.

پیشنهاد می‌کنیم بخوانید:  راهنمای تابع append() پایتون

مارکوف چین مونت کارلو (MCMC):

برای مجموعه داده‌های بزرگ، روش‌های مونت کارلو معمولاً برای محاسبه نتایج بسیار طولانی است.

یکی از راه های حل این مشکل استفاده از نسخه کوچکتر مجموعه داده های بزرگ است. این به نوعی مانند یک خلاصه است نشان می دهد محتوای یک کتاب چون سریعتر خوانده می شود.

این نسخه کوچکتر زنجیره مارکوف نامیده می شود.

به عبارت ساده، زنجیره های مارکوف مدل هایی هستند که نشان می دهند یک سیستم چگونه بین حالت ها حرکت می کند.

یک مجموعه داده بزرگ را می توان به عنوان یک سیستم و حالت ها را به عنوان الگوهای داده در نظر گرفت.

به این ترتیب، زنجیرهای مارکوف مدل های ساده ای هستند که می توانند نمایندگی کند یک مجموعه داده بزرگ زیرا نشان می دهد که چگونه چیزها از یک حالت به حالت دیگر تغییر می کنند.

این تغییر حالت می تواند با اعداد کمتر، الگوهای مهم در داده ها را نشان دهد.

به این ترتیب، از زنجیره مارکوف، روش مونت کارلو نتایج خود را محاسبه می کند.

در اصل، مونت کارلو پیش بینی های خود را انجام می دهد غیر مستقیم از داده های اصلی زنجیره مارکوف به عنوان یک پیش پردازش داده ها مرحله برای محاسبه نتایج مونت کارلو

در پایان، MCMC فقط یک روش مونت کارلو معمولی است اما از نظر محاسباتی بسیار کارآمدتر است.

انواع دیگر

روش های دیگر مانند گرادیان، نیمه گرادیان و شبه مونت کارلو تمرکز نیز روی کارایی محاسباتی اما در این مقاله فقط به دنبال برجسته کردن اهمیت روش های مونت کارلو در علم، مهندسی و برنامه نویسی هستم.

پیاده سازی عملی: روش های مونت کارلو در پایتون

در کد زیر روش پیاده سازی یک نوع MCMC در پایتون را خواهید دید.

من یک نوع محبوب MCMC به نام مونت کارلو همیلتونی (HMC) را نمایش خواهم داد.

همیلتونی نامیده می شود زیرا از مفاهیم مکانیک همیلتونی برای پیشنهاد حالت های جدید برای زنجیره های مارکوف در مرحله پیش پردازش داده ها استفاده می کند.

مکانیک هامیلتونی چیست؟

برای پاسخ به این سوال، باید کمی در مورد مکانیک کلاسیک بدانید.

مکانیک کلاسیک از قوانین حرکت نیوتن برای توضیح روش رفتار و تغییر سیستم های فیزیکی در طول زمان استفاده می کند.

مکانیک هامیلتونی روش دیگری برای بررسی این سیستم ها است. اغلب بر نقش انرژی و بقای آن با استفاده از متغیرهای مختلف مانند موقعیت های تعمیم یافته و لحظه ای تاکید می کند.

این روش منحصر به فرد برای توصیف وضعیت و تکامل یک سیستم در HMC استفاده می شود.

هدف مثال کد اصلی

ما یک توزیع هدف را از یک توزیع گاوسی دو بعدی با استفاده از TensorFlow Probability ایجاد خواهیم کرد. این بدان معناست که HMC این توزیع هدف را مدل خواهد کرد.

توزیع گاوسی دو بعدی با داده های مصنوعی برای نشان دادن تقریب ایجاد شده است process با استفاده از مونت کارلو همیلتونی

به عبارت دیگر، HMC این توزیع گاوسی دوبعدی را به طور دقیق نشان خواهد داد.

در سناریوهای واقعی، از مدارها تا امور مالی، همه سیستم ها را می توان به عنوان یک توزیع احتمال توصیف کرد.

روش های مونت کارلو این توزیع های پیچیده را تقریب می زند. و MCMC این را می سازد process بسیار سریعتر

در این مثال کد ساده، من یک توزیع هدف ساده را تقریب می‌زنم تا بتوانید درک کنید که در یک سناریوی واقعی چگونه این مورد اعمال می‌شود.

این کد کامل است (در زیر به صورت گام به گام آن را بررسی خواهیم کرد):

import tensorflow as tf
import tensorflow_probability as tfp

# Define the target distribution (2D Gaussian)
def target_log_prob(x, y):
    return -0.5 * (x**2 + y**2)

# Initialize the HMC transition kernel
num_results = 1000
num_burnin_steps = 500

hmc = tfp.mcmc.HamiltonianMonteCarlo(
    target_log_prob_fn=lambda x, y: target_log_prob(x, y),
    num_leapfrog_steps=3,
    step_size=0.1
)

# Define the trace function to record the state and kernel results
@tf.function
def run_chain(initial_state, kernel, num_results, num_burnin_steps):
    return tfp.mcmc.sample_chain(
        num_results=num_results,
        num_burnin_steps=num_burnin_steps,
        current_state=initial_state,
        kernel=kernel,
        trace_fn=lambda _, pkr: pkr
    )

# Run the MCMC chain
initial_state = [tf.zeros([]), tf.zeros([])]
samples, kernel_results = run_chain(initial_state, hmc, num_results, num_burnin_steps)

# Extract the samples and log
samples_ = [s.numpy() for s in samples]
samples_x, samples_y = samples_

print("Acceptance rate: ", kernel_results.is_accepted.numpy().mean())
print("Mean of x: ", samples_x.mean())
print("Mean of y: ", samples_y.mean())
1-3
اجرای عملی روش مونت کارلو زنجیره مارکوف

بیایید روش عملکرد کد را گام به گام درک کنیم.

کتابخانه ها را وارد کنید

import tensorflow as tf
import tensorflow_probability as tfp
2-2
واردات کتابخانه ها

در این کد ما import دو کتابخانه پایتون:

  • TensorFlow: ساخت و آموزش مدل های یادگیری ماشین
  • TensorFlow Probability: استدلال احتمالی و مدل سازی آماری

یک توزیع هدف ایجاد کنید

def target_log_prob(x, y):
    return -0.5 * (x**2 + y**2)
3-1
ایجاد توزیع هدف

در این کد، توزیع گاوسی دوبعدی را تعریف می کنیم:

خروجی-1
توزیع گاوسی دوبعدی

این نمودار به صورت زیر تعریف می شود:



نمایش معادله

-0.5 × (x2 + y2)

از آنجایی که یک توزیع گاوسی دوبعدی است، هر نقطه داده با دو متغیر همبسته که از یک توزیع گاوسی مشترک پیروی می کنند، نشان داده می شود.

اگر این یک سناریوی واقعی بود، ما یک سیستم را با پیدا کردن توزیع احتمال آن بر اساس مدل سازی می کردیم. روی دو متغیر

در بسیاری از کاربردهای عملی، مانند مدارها، ده ها متغیر می توانند دخیل باشند.

برای مدل‌سازی صحیح چنین سیستم‌هایی، اغلب از توزیع‌های احتمال چند متغیره استفاده می‌کنیم که مفهوم توزیع گاوسی را به بسیاری از ابعاد تعمیم می‌دهد.

زنجیره مارکوف مونت کارلو را راه اندازی کنید

num_results = 1000
num_burnin_steps = 500

hmc = tfp.mcmc.HamiltonianMonteCarlo(
    target_log_prob_fn=lambda x, y: target_log_prob(x, y),
    num_leapfrog_steps=3,
    step_size=0.1
)
4-1
راه اندازی زنجیره مارکوف مونت کارلو

این بلوک کد یک هسته انتقال همیلتونی مونت کارلو (HMC) را با استفاده از TensorFlow Probability تنظیم می کند.

ابتدا دو متغیر را تعریف می کند:

  • num_results به عنوان 1000، نشان دهنده تعداد نمونه های تولید شده است
  • num_burnin_steps به عنوان 500، نشان دهنده تعداد نمونه های اولیه برای دور ریختن (دوره سوختگی).

هسته انتقال HMC با:

  • یک تابع احتمال لاگ هدف که دو ورودی را می گیرد و احتمال لاگ آنها را برمی گرداند. در مورد ما، تابع احتمال ورود به سیستم هدف توزیع گاوسی دوبعدی است. احتمال ورود به سیستم، احتمال وجود مجموعه خاصی از مقادیر است.
  • الگوریتم هر بار 3 مرحله انجام می دهد.
  • اندازه هر مرحله (تغییر مقدار) 0.1 است.

برای ثبت وضعیت و نتایج هسته، تابع trace را ایجاد کنید

@tf.function
def run_chain(initial_state, kernel, num_results, num_burnin_steps):
    return tfp.mcmc.sample_chain(
        num_results=num_results,
        num_burnin_steps=num_burnin_steps,
        current_state=initial_state,
        kernel=kernel,
        trace_fn=lambda _, pkr: pkr
    )
5-1
ایجاد تابع trace برای ثبت وضعیت و نتایج هسته

عملکرد با تزئین شده است @tf.function، که با کامپایل کردن آن در یک نمودار TensorFlow، آن را برای عملکرد بهینه می کند.

کارکرد run_chain چهار استدلال می گیرد:

  1. initial_state: حالت اولیه زنجیره مارکوف.
  2. kernel: هسته انتقال MCMC برای استفاده (مانند مونت کارلو همیلتونی).
  3. num_results: تعداد نمونه هایی که باید تولید شوند.
  4. num_burnin_steps: تعداد نمونه های اولیه برای دور ریختن (دوره سوختگی).

تابع فراخوانی می کند tfp.mcmc.sample_chain برای انجام نمونه برداری MCMC:

  • num_results: تعداد نمونه هایی که باید رسم شوند.
  • num_burnin_steps: تعداد مراحل سوختن.
  • current_state: حالت شروع زنجیره مارکوف.
  • kernel: هسته انتقالی که نمونه برداری را تعریف می کند process.
  • trace_fn: تابعی که مشخص می کند در طول نمونه برداری چه چیزی را ردیابی کنیم. در این حالت، نتایج هسته قبلی را برمی گرداند (pkr) به طور موثر وضعیت داخلی الگوریتم MCMC را ردیابی می کند.

زنجیره MCMC را اجرا کنید

# Run the MCMC chain
initial_state = [tf.zeros([]), tf.zeros([])]
samples, kernel_results = run_chain(initial_state, hmc, num_results, num_burnin_steps)

# Extract the samples and log
samples_ = [s.numpy() for s in samples]
samples_x, samples_y = samples_

print("Acceptance rate: ", kernel_results.is_accepted.numpy().mean())
print("Mean of x: ", samples_x.mean())
print("Mean of y: ", samples_y.mean())
6
اجرای زنجیره MCMC

بسیار خوب، بیایید این را تجزیه کنیم زیرا چیزهای زیادی در حال انجام است روی اینجا:

دولت را راه اندازی کنید:

  • initial_state به لیستی شامل دو تانسور صفر تنظیم شده است که به عنوان نقطه شروع زنجیره مارکوف عمل می کند.

زنجیره MCMC را اجرا کنید:

  • این run_chain تابع با حالت اولیه، هسته HMC، تعداد نتایج و تعداد مراحل رایت فراخوانی می شود.
  • تابع دو مقدار برمی گرداند: samples، که نمونه های تولید شده هستند و kernel_results، که حاوی نتایج حاصل از هسته (شامل اطلاعات تشخیصی) است.

استخراج و تبدیل نمونه ها:

  • نمونه ها از تانسورهای TensorFlow به آرایه های NumPy برای دستکاری و تجزیه و تحلیل آسان تر تبدیل می شوند.
  • samples_ یک لیست درک است که هر تانسور نمونه را به یک آرایه numpy تبدیل می کند.
  • samples_x و samples_y نمونه های استخراج شده برای دو بعد هستند.

تشخیص چاپ:

  • میزان پذیرش نمونه‌بردار MCMC محاسبه و چاپ می‌شود. نسبت پیشنهادات پذیرفته شده را در طول نمونه گیری نشان می دهد.
  • میانگین نمونه ها برای هر دو بعد (x و y) برای ارائه خلاصه ای از نتایج نمونه گیری محاسبه و چاپ می شوند.

این به عنوان نتایج نشان می دهد:

  • نرخ پذیرش: 1.0. این بدان معناست که تمام پیشنهادات ارائه شده در طول نمونه گیری پذیرفته شد
  • میانگین x: -0.11450629 و میانگین y: -0.23079416. در یک توزیع گاوسی کامل دو بعدی، میانگین x و y 0 است.

با این نوع MCMC، توزیع گاوسی دوبعدی را تقریب می‌کنیم. اما نزدیک به صفر است. این بدان معنی است که با توجه به زمان محاسباتی بیشتر، احتمالاً تا زمانی که آنقدر کوچک باشد که بتوان آن را صفر در نظر گرفت، به عدد کوچکتری می‌رود.

نتیجه گیری: آینده روش های مونت کارلو

آینده روش های مونت کارلو در ایجاد انواعی نهفته است که به منابع محاسباتی کمتری نیاز دارند و در زمان صرفه جویی می کنند.

با این پیشرفت ها، روش های مونت کارلو کاربردهای بیشتری در زمینه های بیشتری پیدا می کند.

به لطف روش‌های مونت کارلو، ما می‌توانیم سیستم‌ها و پدیده‌های پیچیده‌ای را که قبلاً انجام آنها غیرممکن بود به روشی کارآمد مدل‌سازی کنیم.

اگر می خواهید بیشتر بدانید، می توانید این مقاله را بخوانید روی روش های مونت کارلو

همچنین می توانید کد کامل را در اینجا بررسی کنید:

GitHub – tiagomonteiro0715/freecodecamp-my-articles-source-code: این مخزن کدی را که من در مقاله‌های خبری freecodecamo خود استفاده می‌کنم در خود نگه می‌دارد.
این مخزن کدی را که در مقاله‌های خبری freecodecamo خود استفاده می‌کنم، نگه می‌دارد. – tiagomonteiro0715/freecodecamp-my-articles-source-code
freecodecamp-my-articles-source-code