مقاله هندسه محاسباتی
TRANSCRIPT
بسم اهلل الرحمن الرحیم
های تقريبی در هندسه ی محاسباتی الگوريتم
فائزه اکبری فیض آبادی
1931فروردين
فهرست مطالب
PNآشنايی با نظريه .1
N _ NlonyloPکالس .2
PNPlyoliloonynsiniNlonyloPoکالس .9
dPoo PNکالس .4
iloeloli PNکالس .5
بهینه سازی .6
درجه تقريب .7
( loolo etslosilخطای قطعی) .8
(nlosiinlyانواع کاهش ها ) .3
11. Strike reduction
11. A-reduction
12. P-reduction
19. R-reduction
14. L-reduction 15. F-reduction
16. Apx کالس
PNNکالس .17
الگوريتم های تقريبینمونه مسائل هندسه محاسباتی قابل حل با استفاده از .18
مراجع .13
PNآشنايی با نظريه
پیچیدگی زمانی آن تابع چندجمله ای از ،الگوريتم زمانی چند جمله ای , الگوريتمی است که در بدترين حالت
اندازه ورودی میباشد .
: مساله ای است که حل آن توسط الگوريتمی با زمان چند جمله ای غیر ممکن (oyioPiiPtol )مساله بغرنج
باشد .توجه شود که بحث ما سر خود مساله است و نه الگوريتم حل مساله . برای آنکه مساله بغرنج باشد بايد
بت کرد که هیچ الگوريتمی با مرتبه ای چند جمله ای برای آن وجود ندارد .ثا
ن يا نبودن , مسائل علوم کامپیوتر به سه دسته تقسیم میشوند:از نظر بغرنج بود
مسائلی که الگوريتمی با پیچیدگی زمانی چند جمله ای برای آن ها پیدا شده است 1
مسائلی که اثبات شده است بغرنج هستند , يعنی الگوريتم چند جمله ای برای آن يافت نمیشود 2
است ولی از طرف ديگر هیچ الگوريتم چند جمله ای هم برای آنها پیدا مسالی که بغرنج بودن آنها ثابت نشده 9
نشده است.
( 1و 1)نمونه دسته سوم مساله فروشنده دوره گرد و کوله پشتی
رابطه مسائل بهینه سازی و مسائل تصمیم گیری
است. نکته خروجی مسائل بهینه سازی يک حل بهینه است و خروجی مسائل تصمیم گیری ,جواب بله يا خیر
مهم اين است که هر مساله بهینه سازی را میشود معادل يک مساله تصمیم گیری در نظر گرفت.
مثال مساله بهینه سازی فروشنده دوره گرد اين است که يک تور با حداقل کل وزن يال ها را بدست آوريم )
بقیه رئوس ديگر دقیقا يک بار منظور از تور مسیری است که از يک راس شروع و به همان راس ختم شود و از
داده شده , توری با وزن tعبور کند (. مساله تصمیم گیری فروشنده دوره گرد آن است که در ازای عدد مثبت
وجود دارد يا نه . tکل کمتر يا مساوی
, کلیک و رنگ آمیزی گراف را میشود نام برد. 1و 1از نمونه های ديگر مساله کوله پشتی
N _ NlonyloPکالس
الگوريتم های با به طور کلی مسال تصمیم گیری به چهار کالس تقسیم میکنیم , مسائلی که برای حل آن ها
)معین( را مرتبه زمانی چند جمله ای يافت شده است اين کالس يا به عبارت بهتر کالس الگوريتم های قطعی
تشکیل میدهند.
PNPlyoliloonynsiniNlonyloPo کالس
برای معرفی اين کالس بايد ماشینی با مشخصات جديد تعريف کنیم . ماشینی را تصور کنید که افزون بر توانايی
ین را نیز اجرا کند . يک دستور نامعین عی قادر است برخی دستور های نامعاجرای دستور های معین و قط
پیش بینی نیست . برای مثال فرض کنید دستوری داشته باشیم که از دستوری است که نتیجه آن از قبل قابل
يکی را انتخاب بکند قبل از اجرای چنین دستوری نمیتوان پیش بینی کرد که دقیقا کدام 11تا 1بین اعداد
يک از اعداد انتخاب خواهند شد . چنین ماشینی را يک کامپیوتر يا ماشین نامعین می نامیم و الگوريتم های
تابع انتخاب 9که برای چنین ماشینی طراحی میشوند را الگوريتم های نامعین می نامیم. برای اين الگوريتم ها
, شکست و پیروزی استفاده میشود.
تشخیص اول بودن يا نبودن يک عدد طبیعی , مرتب کردن اطالعات و صدق پذيری نمونه هايی از مسائلی
عین سادهای برای آن ها طراحی کرد . هستند که میتوان الگوريتم های نام
محققین بسیاری سعی کردند که e≤ye ک الگوريتم نامعین قابل اجراست پسهر الگوريتم معین توسط ي
مفهوم آن اين است که هر مسئله ای که برای ان الگوريتم نامعین با مرتبه زمانی چند جمله e=yeثابت کنند
اس . 1371ای وجود دارد میتوان برای آن يک الگوريتم معین با مرتبه زمانی چند جمله ای پیدا کرد .در سال
با بیان اين .e=yeد که تعلق دارد ثابت میشو eای . کوک ثابت کرد چنانچه ثابت شود صدق پذيری به کالس
و ye dPooمطلب مساله صدق پذيری از اهمیت بااليی برخوردار میشود , به گونه ای که کالس های
iloeloli ye بر محور اين قضیه شکل می گیرند. افزون بر آن تالش دانشمندان را در اين مسیر جهت دار
ه حل معین چند جمله ای برای مسائل صدق پذيری و فعالیت آن ها را حول محور تالش برای يافتن رامیسازد
متمرکز میکند.
به اين مزموم که آيا يک عبارت منطقی داده شده به ازامقاديری از صدق پذيری است yeيکی از مسائل کالس
لفظ های تشکیل دهنده آن درست خواهد بود. طراحی يک الگوريتم نامعین که تشخیص بدهد يک عبارت داده
ر هست يا خیر مشکل نیست منتها بربرای اجرای الگوريتم های نامعین نیاز به کامپیوتر های با شده صدق پذي
تعداد پردازنده های نامتناهی است.
dPoo PNکالس
ابتدا به بیان مفهوم تقلیل يا همان کاهش پذيری میپردازم :
کاهش ) تقلیل ( می يابد اگر و فقط اگر الگوريتمی معین با yبه مساله oدو مساله باشند , مساله yو oاگر
وجود داشته باشد, آنگاه بتوان با بکارگیری الگوريتم معین با مرتبه زمانی yزمانی چند جمله ای برای مرتبه
را با الگوريتمی معین و زمان چند جمله ای حل کرد. oرا حل میکند , yچند جمله ای که
صدق پذيری به آن کاهش پیدا کند.است اگر و فقط اگر dPoo yeيک o: مساله dPoo yeمساله
نمونه ای از اين کالس مساله توقف پذيری است
iloeloli PNکالس
است در واقع فصل مشترک اين دو کالس میباشد dPoo ye و yeاين کالس زير کالس های
باشد و در عین حال dPoo yeيک مساله oاست اگر و فقط اگر iloeloli yeيک مساله oتعرف:
𝑚 باشد. ∈ 𝑛𝑝
رنگ پزيری گراف و چهار رنگ نمونه ای ازمسائل عضو اين کالس مساله های صدق پذيری ترکیبات عطفی, سه
{1پذيری }
:بهینه سازی
محاسباتی به چالش کشید , پیدا کردن بسیاری از مسائل بزرگ بهینه سازی دنیای واقعی را میشود از ديد
جواب بهینه يا حتی نزديک به بهینه در اين گونه مسائل بخصوص در حالتی که مسائل بزرگ میشود نیاز به
منابع محاسباتی دارد و با بزرگ شدن اين گونه مسائل حجم محاسبات نیز افزايش می يابد.
آنها به صورت چند جمله ای رشد میکند در غیر اين مسائلی که با استفاده از راه حل های محسباتی زمان
صورت نمايی خواهد بود يا حتی در حجم کوچکتر میتواند غیر قابل حل میباشد.
طبقه بندی میشود )دسته dPoo yeيک حجم وسیعی از کالس های مسائل معمولی بهینه سازی جزو مسائل
مسائلی که تضمین شده است راه حل بهینه داشته باشد(
جواب تقريبی نزديک به بهینه برای مسائل بهینه سازی سخت وجود سوالی که مطرح میشود اين است که آيا
دارد؟
li yPoln _ 1372 ,nldysly _ 1374ايده تخمین در متن مقاله های 1371و 1361در دهه های
,yoPdPoo _ 1366 در باره برنامه ريزی چند پردازنده ها و ,ePiknyp tny اد شد .پیشنه
الگوريتم های تقريبی دارای دو ويژگی است: اوال برای يک نمونه از مساله يک راه حل شدنی در زمان چند جمله
علی رقم اين که ما يک ای ارائه میدهد در بسیاری از مواقع ساختن رويه برای راه حل شدنی کار سختی نیست
تقريبی را بیش ترين فاصله راه حل تقريبی از راه حل مطمئن را ترجیح میدهیم ولی کیفیت الگوريتم های
جواب بهینه روی تمام نمونه های ممکن از مساله تعیین میکند.
به صورت غیر رسمی میتوانیم بگويیم که الگوريتم تقريبی حلی برای مساله بهینه سازی است اگر بهینه ای که
اندازه گیری میکند قابل بازگشت به راه حل شدنی باشد.
يک ابزار قدرتمند برای طراحی الگوريتم های تقريبی استفاده همزمان از الگوريتم های تصادفی , حريصانه و
slPoid oliPo
nPpdPgPy وiliwPyn نشان دادند که الگوريتم های تصادفی از الگوريتم های قطعی برای 1335در سال
وانیم الگوريتم های تصادفی و تقريبی را با هم ترکیب آنالیز و اجرا کردن سريع تر و راحت تر می باشند , ما میت
کرده و در حل مسائل بهینه سازی به کار ببريم در اين حالت زمان اجرای متغیر های تصادفی ممکن است
متغییر های تصادفی باشد.)نکته حائز اهمیت اين است که اين تصادفی بودن از اجرای الگوريتم های تصادفی و
رد نه از نمونه ها (تقريبی نشات میگی
ما الگوريتم های موثری را نمیشناسیم الگوريتم های تقريبی برای ما مفید dPoo yeچون در مورد مسال
هستند که در ازا خطای کوچک پیچیدگی زمانی آن ها از نمايی به سکت چند جمله ای برود.الگوريتم های
نامیده میشوند, اين کالس از eeAشده است که تقريبی خوبی برای چند مساله کلیدی بهینه سازی ارائه
الگوريتم ها پیچدگی زمانی چند جمله ای دارند که با يک عدد ثابت کراندار شده اند.
ما میتوانیم يک خانواده از الگوريتم های تقريبی را در نظر بگیريم که به ما کمک میکنند تا به حدی که
( نامیده eoplonido AidloP) eAانواده از الگوريتم ها را میخواهیم به جواب بهینه نزديک بشويم اين خ
NAeAالگوريتم ها در زمان چند جمله ای قابل حل هستند eAمیشود و تمامی اين مسالی که با اين
(Anol NlonyloPo.نامیده میشوند )
يز ورودی و بزرگی خطای در برخی موارد ما میتوانیم برنامه های تقريبی را با زمان چند جمله ای وابسته به سا
( نامیده sidloP PeeolAnoPil oNlonyloP ysoon) SNAeAتقريبی حدس بزنیم اين کالی از مسائل
میشود.
مساله بهینه سازی :
ما به بیان مسائل بهینه سازی به گونه سنتی میپردازيم هر مساله بهینه سازی سه ويژگی را داراست:
تابع اندازه گیری برای تعین اين که کدام راه 9معیاری برای راه حل شدنی مساله 2ساختار ورودی نمونه 1
{2حل شدنی بهینه جواب شدنی را برای مساله در بر دارد. }
قابل کاهش و تبديل شدن به همديگر iloeloli Peاين نکته حائز اهمیت است که دسته مسائل کالس
{9يبی در مورد آن ها قابل تقلیل و تعمیم نمی باشد .}میباشند ولی تقريب و الگوريتم های تقر
:درجه تقريب
و sye oPAهنگام تعريف کالس sPyyPkPknsو NPePononionlssتوسط 1388ايده اصلی در سال
که به صورت تقريبی با ثابت نمايش داده میشد مطرح Lolosiinlyموضوع جديدی در تقلیل به نام
{4گرديد}
sye oPA شامل مسائلی است که به صورت نحوی در يک مدل مشخصی تعريف میشوند و به وسیله آن ها :
را به روش غیر محاسباتی در زمان چند جمله ای ثابت حل نمود. Pelبسیاری از مسال
تقلیل داد برای نمونه sye oPA-iloeloliرا میشود به sye oPAاين دو ثابت کردند که هر مساله در
sPi9 oPA مساله پیدا کردن جايگذاری درستی که بیشترين تعداد جمالت را دارا باشد.( فرمول (tllonPy
لفظ تشکیل شده باشد.( 9) متقارن جمالت در حالی که هر جمله نامتقارن از حداکثر FPS9در
را میتوان با هر ثابتی تقريب زد؟ sye oPAآيا مساله -
{ ثابت شده است که با فرض 5تا همین اواخر اين سوال بدون جواب بوده ولی درمقاله }
𝑃 میشود با يک ثابت مشخص تقريب زد ولی با هر ثابتی خیر ≠ 𝑁𝑃
Pelدرجه تقريب مسال
)ماکزيمم زير مجموعه مستقل ( همچون مساله پیدا کردن sli nyo oPAيکی از مسائل سخت مساله تقريب
ماکزيمم سايز مجموعه ی از نقاط مستقل در گراف که مستقیما با يال ها بهم متصل نشده اند. اين مساله را
میشود تقريب زد. iبه توان yتعداد رئوس گراف باشد با yتقريب زد ولی اگر iنمیشود با ثابت
LIN مساله پیدا کردن طوالنی ترين مسیر القايی در گراف جزو مسالPN است که قابل کاهش بهN میباشد و
جوابی چند جمله ای به اندازه تمامی وروديها دارد.
نشان دادند که نمیتوان الگوريتمی ارائه کرد که همه مسائل AenoPknsو AloP 1383در سال
eiloeloli مسال {, ولی آنها نشان دادند که 6د }را در زمان ثابت تخمین زN را میشود با الگوريتم های
موجود در کالس الگوريتم های سلسله مراتبی با يک ثابت تقريب زد , آنها همچنین نشان دادند که تقريب زدن
{8{}7سخت است.} PNمسائل
Nlilos وnsoloed { يک الگوريتمی با زمان لگاريتمی موازی با برنامه تخمین برای مساله 3در مقاله ای }
را به مسال شبکه PNNنیز نتیجه برخی از الگوريتم های تقريبی برای مسال sPlکوله پشتی پیدا کردند.
{11عصبی منتقل کرد.}
میکند بهینه محلی بهتری را با در يک فیلد تحقیقاتی ديگر تخمین زدن بهینه محلی است. اين تخمین تالش
نظر گرفتن اختالف بهینه فعلی بدست بیاورد و اگر اختالفی وجود نداشته باشد خروجی ما همان بهینه فعلی
است.
آيا الگوريتم پیدا کردن بهینه محلی همیشه در زمان چند جمله ای ؟ -1دو سوال در اينجا مطرح میشود
حل بهینه محلی مرتبط میشود؟چگونه راه حل بهینه با راه -2
ionlsnldyslyePePonon وsPyyPkPkns يک کالس پیچیده از مسال جستجو محلی به نامNLA را
{ يک بحث و جدلی پیرامون اين که برخی از مسال 14{}19{}12{ که بعد ها در مقاالت }11تعريف کردند }
iloeloliylss NLA رفتاری مشابه مسالiloeloliPN . دارند به راه افتاد
nldysly اولین بارکالسPN { 15را در مسال بهینه نشان داد , }NPyilylsn وFolsilyrn در مقاله
می باشند که در زمان چند جمله ای قابل PNN (Mi9)کالسی از مسال Nl (Mi2){ نسان دادند که 16}
حل هستند.
است که بهینه باشد . sبه معنی پیدا کردن Xبا دادن ورودی Sحل کردن مساله بهینه سازی
Nei مشخص کننده ارزش جواب بهینه است برای مسال ماکزيمم سازی بهترين جواب ماکزيمم وبرای
مسال مینیمم سازی بهترين جواب مینیمم
𝑂𝑝𝑡𝑓 ∈ {max, 𝑚𝑖𝑛}
x ∈ 𝐼𝑓 مجموعه ورودی های مساله بهینه سازی 𝐼𝑓
𝑆𝑓 : مجموعه ناحیه شدنی است که ⊆ Σ∗
yϵ𝑆𝑓(𝑥)
از ورودی ها به ناحیه شدنی به صورت زير:تابعی است 𝑚𝑓(𝑥, 𝑦)
I𝑓 × Σ∗ → 𝑁
𝑚𝑓(𝑥, 𝑦) → yϵ𝑆𝑓(𝑥)
پس يک مساله بهینه سازی به صورت چهارتايی زير تعريف میشود:
F = ( 𝐼𝑓, 𝑆𝑓, 𝑀𝑓, 𝑂𝑝𝑡𝑓)
در مقاله nldyslyو yPolnنحوه اندازه گیری تخمین بستگی به نوع مساله دارد که ترمینولوژی آن توسط
{ مطرح شده است ولی به طور معمول برای مسالی که خیلی سخت نمی باشند برای اندازه گیری تخمین 17}
ستفاده میکنند.ا loloo nloPiloاز yelدر فضاهای شدنی با در نظر داشتن شرايط بهینه مساله
𝜀𝑓𝑟(𝑥, 𝑦) =
|𝑂𝑝𝑡𝑓(𝑥) − 𝑚𝑓(𝑥, 𝑦)|
𝑂𝑝𝑡𝑓(𝑥)
Max 𝜀𝑓𝑟(𝑥, 𝑦) = 1 −
𝑚𝑓(𝑥,𝑦)
𝑂𝑝𝑡𝑓(𝑥,𝑦) ⇒ 1 ≤ 𝜀𝑓
𝑟(𝑥, 𝑦) ≤ 1 , 𝑂𝑝𝑡𝑓(𝑥) ≥ 𝑀𝑓(𝑥, 𝑦) ≥ 1
Min 𝜀𝑓𝑟(𝑥, 𝑦) =
𝑚𝑓(𝑥,𝑦)
𝑂𝑝𝑡𝑓(𝑥,𝑦) − 1 ≥ 1 ⇒ 𝑀𝑓(𝑥, 𝑦) ≤ 𝑂𝑝𝑡𝑓(𝑥) ≤ 1
( : loolo etslosilقطعی)خطای
𝜀𝑓a(𝑥, 𝑦) = |𝑂𝑝𝑡𝑓(𝑥) − 𝑀𝑓(𝑥)|
yϵ𝑆𝑓(𝑥)
امیدی به يافتن راه حل بهینه با خطای قطعی ثابت وجود ندارد. oliiloel PNنکته : برای هیچ يک از مسال
قضیه:
,𝑜𝑝𝑡𝑓(𝑥 در اين حالت میگويیم اندازه ما 𝑦) = 𝑚𝑓(𝑥, 𝑦) ⇔ 𝜀𝑓(𝑥, 𝑦) = 1 , 𝑦𝜖 𝑠𝑓(𝑥)
است. Costrespecting
را در زمان چند جمله ای محاسبه می کند. PNNاز نوع yمدل تخمین : الگوريتمی که جواب بهینه مساله
NAeA الگوريتم تخمین به همراه ورودی هايی و يک مقدار ثابت در زمان چند جمله ای که :
می زند. ɛ+1خروجی بهینه را با حدود x ∈ 𝐼𝑓 و 𝜀 > 1
می باشد که در NAeAمساله پیدا کردن ماکزيمم مجموعه رئوس در گراف مسطح يکی از نمونه مسال قابل
{18حل میباشد.} 𝑜(𝑛.8
1𝜀
𝜀) زمان
ɛ /1 FPTASتعريف میشود فقط اين الگوريتم ها در زمان چند جمله ای از NAeAنیز همچون مسال
تخمین میزند.نمونه ای از اين گونه مسال ,مساله کوله پشتی ɛ+1و طول ورودی حل بهینه را در حدود
{13است.}
PN PNN يک کالس مهم از مسالPNN { میگويم يک مساله بهینه سازی)21{ }21است }PNN )y به
وجود داشته باشد که: Nصورت چند جمله ای کراندار است اگر چند جمله ای همچون
𝑂𝑝𝑡𝑓(𝑥) ≤ 𝑝(|𝑥|) 𝑓𝑜𝑟 𝑎𝑙𝑙 𝑥 ∈ 𝐼𝑓
نامید نمونه ای از اين دست مسال Nei [olpy]{ کالس 21در مقاله } lolyiloاين دسته از مسال را
جزو اين 1-1مینیمم برنامه و Aseبعدی و ماکزيمم مجموعه مستقل است اما مسالی نظیر 9ماکزيمم انطباق
دست از مسال نمیباشد.
تخمینی متفاوت دارند؟ iloeloli-Peچرا مسال
فعالیت داشته باشیم . تمامی مسالدر اين است که هر دو بايد يک کرانی روی تابع Pelو Peشباهت مسال
Pel .میتوانند به صورت مسال تصمیم گیری مطرح بشود و بلعکس
تقلیل پیدا بکند که به سختی تابع فعالیت را حفظ میکنند yو Sمیتواند به دو مساله Peيک مساله 1
ممکن است باز هم راهی برای تخمین زدن آن وجود yمنتقل بشود به تابع فعالیت Sاگر حتی تابع فعالیت 2
يک زير مجموعه گراف مستقل اگر و فقط اگر مکمل آن Ali oyo iPAنداشته باشد؛ به عنوان مثال مساله
اگر و تنها اگر يک مجموعه مستقل از δنده باشد بنابر اين يک راس پوشش دهنده به سايز يک راس پوشش ده
داشته باشیم .پیدا کردن راه حل با خطای قطعی برای هر دو اين مسال سخت ولی با خطای نسبی δVسايز
داريم که از سخت تر است، پس ما دو مساله بهینه سازی يکسان Ali oyo iPAپیدا کردن بهینه برای مساله
نظر دوش يکسان میباشند و از لحاظ تخمین متفاوت.
F = Max Ind Set
G = Min Nod Cover
𝑥 = < 𝑉, 𝐸 > ∈ 𝐼𝑓 = 𝐺𝑓 𝑦 ∈ 𝑆𝑓(𝑥), 𝑦 = 𝑉 − 𝑦
𝑤𝑜𝑟𝑠𝑡𝑓(< 𝑉, 𝐸 >) = 1 𝑤𝑜𝑟𝑠𝑡𝐺(< 𝑉, 𝐸 >) = |𝑉|
ε_f^n (x,y)= |〖opt〗_f (x)-m_f (x)|/|〖opt〗_f (x)- 〖worst〗_f (x)| =(〖opt〗
_f (x)- m_f (x))/(〖opt〗_f (x) )
𝜀𝐺𝑛(𝑥, 𝑦) =
|𝑜𝑝𝑡𝐺(𝑥)− 𝑚𝐺(𝑥,�̅�)|
|𝑜𝑝𝑡𝐺(𝑥)−𝑤𝑜𝑟𝑠𝑡𝐺(𝑥)|=
𝑚𝐺(𝑥,�̅�)−𝑜𝑝𝑡𝐺(𝑥)
𝑤𝑜𝑟𝑠𝑡𝐺(𝑥)−𝑜𝑝𝑡𝐺(𝑥)=
( |𝑉|−𝑚𝑓(𝑥,𝑦))−(|𝑉|−𝑜𝑝𝑡𝑓(𝑥))
|𝑉|−(|𝑉|−𝑜𝑝𝑡𝑓(𝑥))=
𝑜𝑝𝑡𝑓(𝑥)− 𝑚𝑓(𝑥)
𝑜𝑝𝑡𝑓(𝑥)⇒ 𝜀𝑓
𝑛(𝑥, 𝑦) = 𝜀𝐺𝑛(𝑥, 𝑦)
( :nlosiinlyانواع کاهش ها )
با در نظر گرفتن yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله : Strick reduction
y (t,P) زوج مرتببرای تخمین و يک جفت ԑاندازه ثابت
- P وt توابع قابل محاسبه در زمان چند جمله ای می باشند
∀ 𝑦 ∈ 𝑆𝐺(𝑎), 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥) , ∀ 𝑥 ∈ 𝐼𝑓 , 𝑎: 𝐼𝑓 → 𝐼𝐺
∀𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝑓(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀𝐺(𝑎(𝑥), 𝑦)
𝑖𝑓 𝐹 𝑡𝑜 𝐺 𝑖𝑠 𝑆𝑡𝑟𝑖𝑐𝑘 𝑟𝑒𝑑𝑢𝑐𝑡𝑖𝑜𝑛 → 𝐹 ≤𝑠𝑝
𝐺
𝑖𝑓 𝐹, 𝐺, 𝐻 𝑖𝑠 𝑁𝑃𝑂 𝑎𝑛𝑑 𝐹 ≤𝑠𝑝
𝐺 , 𝐺 ≤𝑠𝑝
𝐻 → 𝐹 ≤𝑠𝑝
𝐺
(Approximate preserving reduction) A-reduction
y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله
∁∶ 𝑄𝐺 → 𝑄𝑓 𝑎 , 𝑏
𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)
∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝜀 → 𝜀𝐹
𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝑐(𝜀)
𝐹 ≤𝐴𝑝
𝐺 باشد ما می نويسیم A-reduction يک yبه Sاگر
𝑖𝑓 𝐹 ≤𝐴𝑝
𝐺 𝑎𝑛𝑑 𝐺 ≤𝐴𝑝
𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝐴𝑝
𝐺
Orponen ,Mamida {22}
نامیده شده است. olosiinly Flyinyslsl{ اين کاهش 16{ و }29البته در مقاالت }
:(PTAS presenting reduction) P-reduction
y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله
∁∶ 𝑄𝐺 → 𝑄𝑓 𝑎 , 𝑏
𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)
∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝑐(𝜀) → 𝜀𝐹
𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀
𝐹 ≤𝑝𝑝
𝐺 باشد ما می نويسیم P-reduction يک yبه Sاگر
𝑖𝑓 𝐹 ≤𝑝𝑝
𝐺 𝑎𝑛𝑑 𝐺 ≤𝑝𝑝
𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝑝𝑝
𝐺
:(Randomaized reduction)R-reduction
است که در آن از متغییر های تصادفی استفاده می Nolosiinlyاز چهار تايی مرتب نوع کاهش تنها يکاين
شود.
:(Linear reduction) L-reduction
برای اثبات کامل بودن sPyyPkPknsو NPePononionlssتوسط 1388يک چهارتايی است که در سال
.APNو ماکزيمم PNماکزيمم
:(Fully reduction) F-reduction
y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله
توابع قابل محاسبه در زمان چند جمله ای tو a
∁∶ 𝑄𝑓 × 𝐼𝑓 → 𝑄𝐺 𝑎 , 𝑏
𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)
∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝑐(𝜀, 𝑥) → 𝜀𝐹
𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀
𝑐 𝑡𝑖𝑚𝑒 𝑐𝑜𝑚𝑝𝑙𝑒𝑥𝑡𝑦 → 𝑝𝑙𝑜𝑦𝑛𝑜𝑚𝑎𝑙 (1𝜀
, |𝑥|)
∀ 𝑥 ∈ 𝐼𝑓 , 𝑐(𝜀, 𝑥) ≤1
𝑝1 (1𝜀
, |𝑥|) 𝑝 𝑖𝑠 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑎𝑙
𝑖𝑓 𝐹 ≤𝐹𝑝
𝐺 𝑎𝑛𝑑 𝐺 ≤𝐹𝑝
𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝐹𝑝
𝐺
olosiinly eolslognyp nPinl ,Aolosiinly ,olosiinly PlyilysioPiinglعالوه بر اين
نمونه های ديگری از کاهش ها می باشند که دارای خاصیت هم ارزی olosiinly eolslognp Aiosiisolو
هستند.
استفاده میکنیم. yاز روی الگوريتم تخمین مساله Sما از اين کاهش ها برای ساختن الگوريتم تخمین مساله
کالس های تخمین شامل دسته مسالی هستند که میشود برخی از آنها را در حدود يک ثابت تخمین زد يا به
ر اين کالس ها و پیدا کردن سخت عبارت بهتر مسالی که قابل تخمین با هر ثابتی می باشند , هدف گشتن د
{21{}16{}22{}4}ترين مساله ای است که بتوان ساير مسال موجود در کالس را به آن کاهش داد.
مطرح میکنند چون از سايرين مهمتر میباشند. P-reduction معموال مسائل سخت و کامل را با
باشد و گونه تصمم گیری PNNاز نوع S{ نشان دادند که اگر مساله 24در مقاله } nldyslyو Gray
در زمان چند جمله ای حل نمود. Nslsolباشد نمی شود آن را با الگوريتم PNiloeloliآن
NPr وiloPy {25 تمامی مسائل }SNAeA ويژگی به نام را باNsnoeolylss مشخص و توصیف کرده
پرداخته اند. PNiloeolilylssو Nsnoeolylssانددر اين مقاله اين دو به بحث در مورد رابطه بین
وجود دارد که: qمیگويند اگر يک چند جمله ای مانند esnoeolرا PNNدر Sمساله
𝑞: 𝑁 × 𝑁 → 𝑁 ∀ 𝑘 ∈ 𝑁 {𝑥 ∈ 𝐼𝑓: 𝑜𝑝𝑡𝑓(𝑥) ≤ 𝑘}
قابل تشخیص در زمان
𝑞(|𝑥|, 𝑘)
است اگر و فقط اگر NAeAيک عضو PNNدر Sاله ن دادند که مس{ نشا26اين دو همچنین در مقاله ديگر }
شرايط زير برقرار باشد.
1 S ساده باشد
2 ∃ 𝑄(𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡) ∈ 𝑁 , ∃ 𝑏: 𝐼𝑓 × 𝑍+ → 𝑁 , ∀ 𝑥 ∈ 𝐼𝑓 , ℎ ∈ 𝑍+ − {1}
9 1 ≤𝑂𝑝𝑡𝑓(𝑥)
ℎ− 𝑏(𝑥, ℎ) ≤ 𝑄 𝑖𝑓 𝑜𝑝𝑡𝑓 = 𝑀𝑎𝑥
4 1 ≤ 𝑏(𝑥, ℎ) −𝑂𝑝𝑡𝑓(𝑥)
ℎ≤ 𝑄 𝑖𝑓 𝑜𝑝𝑡𝑓 = 𝑀𝑖𝑛
باشد. البته اين دو در NAeAiloeloliهنوز هیچ مساله بهینه سازی طبیعی نشان داده نشده است که
osiinlySol{ نشان دادند که مساله ماکزيمم مجموعه وزندار با کران کوچک تحت 16مقاله }
است. PTAScomplete
:Apx کالس
کالس دسته مسائلی است که به صورت تخمینی کراندار شده اند و می توان آن ها را با يک ثابت تخمین
مجموعه ای از عبارات منفصل و پیدا کردن قانون درستی که بیش sPi iPAزد.نمونه ای از مسائل اين کالس
{27} ¾ترين تعداد عبارات را داراست اين تخمین در زمان ثابت
se9 iPA پیدا کردن بزرگترين تعداد زوج مجموعه منفصل در زمان 9سته از مجموعه هايی به سايز يک د
{28تخمین زده میشود } 9ثابت
pise يک مجموعه نقاط در صفحه داريم هدف پیدا کردن کوتاه ترين توری است که همه نقاط را ببیند اين
{23تخمین میزند} 2/9مساله را در زمان
e ,eNXiloeloliده است که ماکزيمم مجموعه وزندار و کراندار تحت کاهش همچنین نشان داده ش
می باشد.
:PNNکالس
بزرگترين کالسی است که شامل تمامی مسائل بهینه سازی است که می شود در زمان غیر قطعی چند جمله ای
را میشود در زمان چند جمله ای حل نمود و نیازی به PNNهر مساله N =PNحل شود اگر ثابت شود که
تخمین نیست.
𝑃𝑂 ⊆ 𝐹𝑃𝑇𝐴𝑆 ⊆ 𝑃𝑇𝐴𝑆 ⊆ 𝐴𝑃𝑋 ⊆ 𝑁𝑃𝑂
نمونه مسائل تطابق و بسته بندی که با الگوريتم تقريبی قابل حل هستند
1 Maximum tree dimensional matching
2 Maximum tree set packing
9 Maximum K-set packing
4 Maximum K-dimension matching
5 Maximum triangle packing 6 Maximum H-matching 7 Maximum m common sub graph
انواع مساله فروشنده دوره گرد:
1 Simple Tsp
2 Tsp with triangle inequality
9 Approximation algorithm by Christofides
4 Tsp withdistancesoneandtwo
5 2-dimensional Euclidean Tsp
لیست مسائل بهینه سازی:
تئوری گراف
طراحی شبکه
مجموعه ها و قسمت بندی
ذخیره سازی و بازيابی
ترتیب گذاری و بازيابی
ترتیب گذاری و برنامه ريزی
برنامه نويسی رياضی
منطق
تئوری اتامات ها و زبان
مراجع:
1-Introduction to algorithms , MIT press, 1331, chapter 96-97 , Thomas H.cormen
& Charles E.Leiserson & Ronald L.Rivest
2-In introduction to optimization ,Decision support and search methodologis ,
Burke and Kendall (Eds) , Kluwer, 2115 ,chapter 18 , Carla p.Gomes & Ryan William
9- D. Bruschi, D. Joseph, and P. Young. A structural overview of NP
optimization problems. In Proc. Optimal Algorithms, pages 215–291.
Springer-Verlag, 1383. Lecture Notes in Computer Science 411.
4- C. H. Papadimitriou and M. Yannakakis. Optimization, approxima-
tion, and complexity classes. Journal of Computer and System Sciences,
49:425–441, 1331.
5- S. Arora, C. Lund, R. Motwani, M. Sudan, and M. Szegedy. Proof verifi-
cation and hardness of approximation problems. In Proc. of 99rd Annual
IEEE Sympos. on Foundations of Computer Science, pages 14–29, 1332.
6- M. Serna and P. Spirakis. The approximability of problems complete for
p. In Proc. Optimal Algorithms, pages 139–214. Springer-Verlag, 1383.
Lecture Notes in Computer Science 411.
7- S. K. Sahni. Algorithms for scheduling independent tasks. Journal of the
ACM, 29(1):116–127, 1376.
8- M. Serna. Approximating linear programming is log-space complete for
P. Information Processing Letters, 97:299–296, 1331.
3- J. G. Peters and L. Rudolph. Parallel approximation schemes for subset
sum and knapsack problems. Acta Informatica, 24:417–492, 1387.
11- X. Yao. Finding approximate solutions to NP-hard problems by neural
networks is hard. Information Processing Letters, 41:39–38, 1332.
11- D. S. Johnson, C. H. Papadimitriou, and M. Yannakakis. How easy is
local search? Journal of Computer and System Sciences, 97:73–111, 1388.
12- D. S. Johnson. Local optimization and the traveling salesman problem.
In Proc. ICALP-31, pages 446–461. Springer-Verlag, 1331. Lecture Notes
in Computer Science 449.
19- M. W. Krentel. Structure in locally optimal solutions. In Proc.of91th
Annual IEEE Sympos. on Foundations of Computer Science, pages 216–
221, 1383.
14- M. Yannakakis. The analysis of local search problems and their heuristics.
In Proc. 7th Annual Symposium on Theoretical Aspects of Computer Sci-
ence, pages 238–911. Springer-Verlag, 1331. Lecture Notes in Computer
Science 415.
15- D. S. Johnson. Approximation algorithms for combinatorial problems.
Journal of Computer and System Sciences, 3:256–278, 1374.
16- P. Crescenzi and A. Panconesi. Completeness in approximation classes.
Inform. and Comput., 39(2):241–262, 1331.
17- M. R. Garey and D. S. Johnson. Computers and Intractability: a guide
to the theory of NP-completeness. W. H. Freeman and Company, San
Francisco, 1373.
18-B. S. Baker. Approximation algorithms for NP-complete problems on
planar graphs. In Proc. of 24th Annual IEEE Sympos. on Foundations
of Computer Science, pages 265–279, 1389.
13- O. H. Ibarra and C. E. Kim. Fast approximation for the knapsack and
sum of subset problems. Journal of the ACM, 22(4):469–468, 1375.
21- P. Berman and G. Schnitger. On the complexity of approximating the
independent set problem. In Proc. 6th Annual Symposium on Theoreti-
cal Aspects of Computer Science, pages 256–268. Springer-Verlag, 1383.
Lecture Notes in Computer Science 943.
21-M. W. Krentel. The complexity of optimization problems. Journal of
Computer and System Sciences, 96:431–513, 1388.
22- P. Orponen and H. Mannila. On approximation preserving reductions:
Complete problems and robust measures. Technical Report C-1387-28,
Department of Computer Science, University of Helsinki, 1387.
29-A. Panconesi and D. Ranjan. Quantifiers and approximation. In Proc.
Twenty second Annual ACM symp. on Theory of Comp., pages 446–456.
ACM, 1331.
24- M. R. Garey and D. S. Johnson. Strong NP completeness results: Mo-
tivations, examples and implications. Journal of the ACM, 25:433–518,
1378.
25- G. Ausiello, A. Marchetti-Spaccamela, and M. Protasi. Toward a unified
approach for the classification of NP-complete optimization problems.
Theoretical Computer Science, 12:89–36, 1381.
26- A. Paz and S. Moran. Non deterministic polynomial optimization prob-
lems and their approximations. Theoretical Computer Science, 15:251–
277, 1381.
27- M. Yannakakis. On the approximation of maximum satisfiability. In
Proc. Third Annual ACM-SIAM Symp. on Discrete Algorithms, pages
28- V. Kann. Maximum bounded 9-dimensional matching is MAX SNP-
complete. Information Processing Letters, 97:27–95, 1331.
23- N. Christofides. Worst-case analysis of a new heuristic for the travel-
ling salesman problem. Technical report, Graduate School of Industrial
Administration, Carnegie-Mellon University, Pittsburgh, 1376.