
فهرست مطالب
فصل اول طرح تحقیق1
بیان موضوع یا تعریف مسأله:2
ضرورت انجام تحقیق:4
پیشینه تحقیق:5
فرضیات6
تعریف عملیات متغیرها:7
نوع تحقیق و دلایل آن:7
ابزار گردآوری داده ها:8
جامعه آماری:8
مراحل انجام تحقیق:8
تعریف مفاهیم:8
محدودیت ها12
فصل دوم ادبیات تحقیق13
تاریخچه استفاده از پوست، چرم و چرمسازی:14
تکنولوژی (فن آوری) در صنعت چرم21
مراحل ساخت چرم28
عوامل مؤثر بر کیفیت پوست و چرم 30
الف- پوست:30
ب- چرم:33
انواع چرم و موارد استفاده از آن:35
انواع محصولات چرمی:37
بخش دوم مباحثی در باب صادرات و ابعاد مدیریتی آن39
تجارت بین الملل و کشورهای روبه توسعه 40
جایگاه صادرات غیر نفتی در اقتصاد کشور42
آثار جانبی افزایش ظرفیت های تولیدی42
نقش صادرات غیر نفتی در ایجاد اشتغال43
تعریف استراتژی45
نقش و جایگاه صادرات غیر نفتی در استراتژی های توسعه اقتصادی45
الف- استراتژی جایگزینی واردات45
ب- استراتژی توسعه صادرات:47
انواع استراتژی های رقابتی عام48
رهبری در هزینه50
تمایز محصول51
تمرکز (محدودنگری)53
میانه روی55
تعریف بازاریابی:57
استراتژی های عمده تقسیم بندی بازار58
1- استراتژی بازاریابی یکسان59
2- استراتژی بازاریابی تفکیکی59
3- استراتژی بازاریابی تمرکزی60
ارزشیابی و انتخاب استراتژی تقسیم بندی بازار61
تقسیم بندی بازار های بین المللی63
استراتژی توسعه آمیخته بازاریابی 65
آمیخته محصول66
اهمیت قیمت در آمیخته بازاریابی 68
آمیخته تشویق و ترفیع70
اجزای تشویق و ترفیع71
توزیع فیزیکی در آمیخته بازاریابی 72
تصمیمات عمده در بازاریابی بین المللی73
1- ارزیابی اوضاع و احوال و محیط بازاریابی بین الملل74
2- تصمیم به فعالیت در سطح بینالملل (Deciding wether to go abroad)83
3- تصمیم در مورد انتخاب بازارها در سطح بینالملل (Deciding Which market to enter)85
4- تصمیم در مورد چگونگی وارد شدن به بازار بینالمللی (Diciding how to enter the market)87
5- تصمیم در مورد برنامه های بازاریابی بینالملل (Deciding on the markting program)96
6- تصمیم در مورد نوع سازمان بازاریابی بینالملل (Diciding on the marketing organizition)103
فصل سوم - روش تحقیق107
مقدمه108
روش تحقیق108
روش جمع آوری اطلاعات108
منابع اطلاعات ثانویه109
منابع اطلاعات اولیه110
روش اجرای پرسشنامه110
جامعه آماری:111
نمونه آماری111
تهیه و تنظیم پرسشنامه113
نحوه توزیع سوالات پرسشنامه114
روشهای آماری مورد استفاده116
فصل چهارم - جمع آوری اطلاعات و تجزیه و تحلیل داده ها119
مقدمه120
اطلاعات مربوط به ویژگیهای مدیران مراکز نمونه گیری شده120
آماره آزمون125
سوالات مربوطه:127
بررسی فرضیه 2:129
آماره آزمون:129
آزمون فرضیه 2:129
جداول آزمون فرض گروه نمونه مراکز صنعتی129
بررسی فرضیه 3:138
آماره آزمون138
جداول آزمون فرض گروه نمونه مراکز صنعتی139
سوالات مربوطه:141
بررسی فرضیه 4:145
آزمون فرضیه 4:146
آزمون فرضیه 4:147
سوالات مربوطه:148
بررسی فرضیه 5:151
آزمون فرضیه 5:151
تذکر:153
سوالات مربوطه:154
بررسی فرضیه 6:156
آماره آزمون:156
آزمون فرضیه 6:156
سوالات مربوطه:158
فصل پنجم - نتیجه گیری و پیشنهادات161
نتیجه گیری162
نتایج بدست آمده در ارتباط با فرضیه 1:162
نتایج بدست آمده در ارتباط با فرضیه 2:163
نتایج بدست امه در ارتباط با فرضیه 3:165
نتایج بدست آمده در ارتباط با فرضیه 4:167
نتایج بدست آمده در ارتباط با فرضیه 5:169
پیشنهادات171
پیشنهادات در ارتباط با فرضیه 1:171
پیشنهادات در ارتباط با فرضیه 2:173
پیشنهادات در ارتباط با فرضیه 3:177
پیشنهادات در ارتباط با فرضیه 4:178
پیشنهادات در ارتباط با فرضیه 5:180
پیشنهادات در ارتباطات با فرضیه 6:182
سایر پیشنهادات184
سایر پیشنهادات185
توصیه به سایر دانشجویان محققین188
منابع:190

مقاله ارزش نام و نشان تجاری در تجارت الکترونیک حاوی موارد زیر است
تجارت الکترونیک چیست؟نام تجاری چیست؟تعریف نام تجاری الکترونیکی (E-Brand)نام تجاری و ارزش آننحوه طراحی E-Brandمدیریت علائم تجاریاستراتژی نام و نشان تجاریچرخه ی حیات مارک تجاری و مدیریت محصولپنج نکته برای انتخاب نام تجارینکات کلیدی برای ساخت یک سایت با برند قدرتمندبرای برند خود لوگو طراحی کنید انواع برندمشکلات برند و ارزش نام تجاری الکترونیکی در ایرانو ده ها نکات کلیدی بسیار عالی برای شناخت یک نام تجاری و مقاله ای کاملا کاربردی با بیان تمام جزئیات
چکیده مقاله :
امروزه با ظهور پدیدهٔ دهکدهٔ جهانی، سازمانها میبایست با بکارگیری استراتژیهای نوین،کسب و کار خود را از دنیای واقعی به دنیای مجازی انتقال دهند از جمله ی این موارد مارک تجاری محصول یا شرکت است. یک مارک تجاری، وجه تمایز محصولات و خدمات شرکت از سایر رقباست.امروزه مارکهای تجاری به سمبلهای سرمایهداری بینالمللی تبدیل شدهاند و ارزیابی شرکتها از سوی مشتریان را امکانپذیر میکنند به گونهای که اغلب مشتریان، حتی حاضرند برای یک مارک تجاری قدرتمند بهای بیشتری بپردازند چرا که مارکهای تجاری روش جدیدی از زندگی را به نمایش میگذارند و مجموعهای از ایدههای نو را عرضه میکنند. برای اینکه شرکتها از طریق علائم تجاری خود بتوانند به ایجاد و حفظ اعتماد مشتری بپردازند، نیازمند تبلیغات پرهزینه و بازایابی خوب و قدرتمند هستند. تبلیغات نامناسب، افت ناچیز در کیفیت محصولات، میتواند باعث گریز آن مشتری از بازار مصرف آن مارک تجاری شود. شرکتها به کمک علائم تجاری قدرتمند میتوانند خود را از نظر راهبردی برای آینده تثبیت کرده و با رقبای بالقوهای که بازارهای جهانی را تحت کنترل دارند بهطور مؤثر رقابت کنند. بنابراین میتوان گفت که شرکتها باید برای کسب اعتبار جهانی، ورود به بازارهای جدید، رشد درازمدت، کاهش هزینه و افزایش تولید، اقدام به ایجاد، تثبیت و مدیریت علائم تجاری خود کنند. در این مقاله به شرح نامهای تجاری، نحوهٔ تثبیت آنها و استفاده از استراتژیهای مناسب برای طراحی E-brand و ارزش نام تجاری در عرصه ی تجارت الکترونیک پرداخته شدهاست

ینک پرداخت و دانلود *پایین مطلب*
فرمت فایل:Word (قابل ویرایش و آماده پرینت)
تعداد صفحه18
فهرست مطالب
مقدمه
فصل اول : مفهوم حق شرط یا تحدید تعهد
فصل دومی:نظام حقوقی حاکم بر حق شرط
بخش اول :نظام سنتی : پذیرش به اتفاق آراء
در دوران ما نیازهای اجتماعی و اوضاع و احوال جهان به صورتی در آمده است که ابزارهای قدیمی ، یعنی معاهده و عرف برای ادارۀ روابط بین المللی بسنده نمی نماید .اگر روابط مادی کشور های عضو جامعۀ بین المللی بنیانی و معنوی نیابد و کشورها به همکاری با یکدیگر تر غیب نشوند آن نظم اندکی هم که پس از 10 قرن ب صورت امروزی در آمده است از میان خواهم رفت و جنگ و زورگویی جانشین قاعده و قانون هر چند سست و متزلزل خواهد گردید.
بنابرین ،هم بستگی مادی معنوی کشور های عضو جامعه بین المللی سنگ زیر بنای نظام بین المللی است و رشد و توسعه هر یک از این کشورها مستلزم همکاری سازمان یافته ی آنها در سطحی بالاتر و والاتر از منافع اصلی است به شرط آنکه این همکاری بر اساس اصولی پی گیرد منافع جرع و حاصل وجدان مشترک جامعه بشری باشد.
حقوق بین المللی براستی مفهومی جز این نمی تواند داشته باشد. در ست است که برخی از جامعه بین المللی متفاوت از جامعه داخلی است .اما آنچه که در اساس ، جامعه بین المللی و حقوق بین الملل و جامعه داخلی و حقوق داخلی متمایز می کنند، نه خصوصیات عمدتاً ظاهری آنهاست ، بلکه روند شکل گیری آن جوامع و تاثیر عوامل غیره حقوقی در اجرای مقررات حقوقی ، منشا آن دومی باشد. اگر به هر کاری و طریق نیل به آن در هر دو جامعه و در هر دو شاخه حقوق می تواند بر مبنای اصول مشترکی سازمان گیرد. به همین سبب آنچه امروزه جامعه بین المللی و حقوق بین الملل را دچار بحران کرده است ، تفاوت ماهوی هدف ها و و سایل ها رسیدن به آنهانیست ،بلکه ریشه را باید در سیاست بازی و قدرت نمایی بعضی کشور ها جست و جو نمود. کشور هایی که بد رونه تحول و تکامل حقوق بین الملل اعتنایی ندارد و یا خواهان آنند که حقوق بین الملل را در خدمت خود گیرند و هر جا این حقوق نتواند پاسخگویی خواست از نظر آنان باشد،روی از آن بر می تابند و رسماً یا علاً آنرا نادیده می انگارند.هر کشور یا سازمان بین النمللی که مایل به التزام درقبال معاهده ای باشد که موضوع و هدف و محتوای آن را در کل بر ای خود مناسب تشخیص دهد اما بر خی از مقررات آن را نا مناسب نداند، می تواند پل ها را به طور کامل منهدم سازد ، بلکه بهالتزام در قبا ( چنین معاهده ای رضایت دهد، اما اعلام نماید که خواستار استثنا کردن تعهد خود نسبت به مقرراتی است که آنها را مطابق با میل و رضایتش نمی داند و یا قصد دارد به آن مقررات معنای خاص و قابل قبول ببخشد . هر گاه این چنین رفتاری شود ، در واقع «حق شرط»بر مقررات معاهده انشاء شده است ، و حقوق معاهدات این عمل را مجاز می داند.
موضوع این تحقق حق شرط است و به ترتیب مفهوم حق شرط نظام حقوقی حاکم بر آن و شرایط پذیرش آن و نحوۀ اعمال و آثار حقوقی آن و شناخت اعلامیه تفسیری و تمییز آن با حق شرط را شرح خواهم داد و امیدوارم مورد قبول و پذ یرش استاد خوب و محترم جناب آقای خراشادیزاده باشد.

Data Mining Algorithms: Explained Using R, Wiley, 2015
مطالب
Part I Preliminaries 1
1 Tasks 3
1.1 Introduction 3
1.1.1 Knowledge 4
1.1.2 Inference 4
1.2 Inductive learning tasks 5
1.2.1 Domain 5
1.2.2 Instances 5
1.2.3 Attributes 5
1.2.4 Target attribute 6
1.2.5 Input attributes 6
1.2.6 Training set 6
1.2.7 Model 7
1.2.8 Performance 7
1.2.9 Generalization 8
1.2.10 Overfitting 8
1.2.11 Algorithms 8
1.2.12 Inductive learning as search 9
1.3 Classification 9
1.3.1 Concept 10
1.3.2 Training set 10
1.3.3 Model 11
1.3.4 Performance 12
1.3.5 Generalization 13
1.3.6 Overfitting 13
1.3.7 Algorithms 13
1.4 Regression 14
1.4.1 Target function 14
1.4.2 Training set 14
1.4.3 Model 15
1.4.4 Performance 15
1.4.5 Generalization 15
1.4.6 Overfitting 15
1.4.7 Algorithms 16
1.5 Clustering 16
1.5.1 Motivation 16
1.5.2 Training set 17
1.5.3 Model 18
1.5.4 Crisp vs. soft clustering 18
1.5.5 Hierarchical clustering 18
1.5.6 Performance 18
1.5.7 Generalization 19
1.5.8 Algorithms 19
1.5.9 Descriptive vs. predictive clustering 19
1.6 Practical issues 19
1.6.1 Incomplete data 20
1.6.2 Noisy data 20
1.7 Conclusion 20
1.8 Further readings 21
References 22
2 Basic statistics 23
2.1 Introduction 23
2.2 Notational conventions 24
2.3 Basic statistics as modeling 24
2.4 Distribution description 25
2.4.1 Continuous attributes 25
2.4.2 Discrete attributes 36
2.4.3 Confidence intervals 40
2.4.4 m-Estimation 43
2.5 Relationship detection 47
2.5.1 Significance tests 48
2.5.2 Continuous attributes 50
2.5.3 Discrete attributes 52
2.5.4 Mixed attributes 56
2.5.5 Relationship detection caveats 61
2.6 Visualization 62
2.6.1 Boxplot 62
2.6.2 Histogram 63
2.6.3 Barplot 64
2.7 Conclusion 65
2.8 Further readings 66
References 67
Part II Classification 69
3 Decision trees 71
3.1 Introduction 71
3.2 Decision tree model 72
3.2.1 Nodes and branches 72
3.2.2 Leaves 74
3.2.3 Split types 74
3.3 Growing 76
3.3.1 Algorithm outline 76
3.3.2 Class distribution calculation 78
3.3.3 Class label assignment 79
3.3.4 Stop criteria 80
3.3.5 Split selection 82
3.3.6 Split application 86
3.3.7 Complete process 86
3.4 Pruning 90
3.4.1 Pruning operators 91
3.4.2 Pruning criterion 91
3.4.3 Pruning control strategy 100
3.4.4 Conversion to rule sets 101
3.5 Prediction 103
3.5.1 Class label prediction 104
3.5.2 Class probability prediction 104
3.6 Weighted instances 105
3.7 Missing value handling 106
3.7.1 Fractional instances 106
3.7.2 Surrogate splits 113
3.8 Conclusion 114
3.9 Further readings 114
References 116
4 Naïve Bayes classifier 118
4.1 Introduction 118
4.2 Bayes rule 118
4.3 Classification by Bayesian inference 120
4.3.1 Conditional class probability 120
4.3.2 Prior class probability 121
4.3.3 Independence assumption 122
4.3.4 Conditional attribute value probabilities 122
4.3.5 Model construction 123
4.3.6 Prediction 124
4.4 Practical issues 125
4.4.1 Zero and small probabilities 125
4.4.2 Linear classification 126
4.4.3 Continuous attributes 127
4.4.4 Missing attribute values 128
4.4.5 Reducing naïvety 129
4.5 Conclusion 131
4.6 Further readings 131
References 132
5 Linear classification 134
5.1 Introduction 134
5.2 Linear representation 136
5.2.1 Inner representation function 137
5.2.2 Outer representation function 138
5.2.3 Threshold representation 139
5.2.4 Logit representation 142
5.3 Parameter estimation 145
5.3.1 Delta rule 145
5.3.2 Gradient descent 149
5.3.3 Distance to decision boundary 152
5.3.4 Least squares 153
5.4 Discrete attributes 154
5.5 Conclusion 155
5.6 Further readings 156
References 157
6 Misclassification costs 159
6.1 Introduction 159
6.2 Cost representation 161
6.2.1 Cost matrix 161
6.2.2 Per-class cost vector 162
6.2.3 Instance-specific costs 163
6.3 Incorporating misclassification costs 164
6.3.1 Instance weighting 164
6.3.2 Instance resampling 167
6.3.3 Minimum-cost rule 169
6.3.4 Instance relabeling 174
6.4 Effects of cost incorporation 176
6.5 Experimental procedure 180
6.6 Conclusion 184
6.7 Further readings 185
References 187
7 Classification model evaluation 189
7.1 Introduction 189
7.1.1 Dataset performance 189
7.1.2 Training performance 189
7.1.3 True performance 189
7.2 Performance measures 190
7.2.1 Misclassification error 191
7.2.2 Weighted misclassification error 191
7.2.3 Mean misclassification cost 192
7.2.4 Confusion matrix 194
7.2.5 ROC analysis 200
7.2.6 Probabilistic performance measures 210
7.3 Evaluation procedures 213
7.3.1 Model evaluation vs. modeling procedure evaluation 213
7.3.2 Evaluation caveats 214
7.3.3 Hold-out 217
7.3.4 Cross-validation 219
7.3.5 Leave-one-out 221
7.3.6 Bootstrapping 223
7.3.7 Choosing the right procedure 227
7.3.8 Evaluation procedures for temporal data 230
7.4 Conclusion 231
7.5 Further readings 232
References 233
Part III Regression 235
8 Linear regression 237
8.1 Introduction 237
8.2 Linear representation 238
8.2.1 Parametric representation 239
8.2.2 Linear representation function 240
8.2.3 Nonlinear representation functions 241
8.3 Parameter estimation 242
8.3.1 Mean square error minimization 242
8.3.2 Delta rule 243
8.3.3 Gradient descent 245
8.3.4 Least squares 248
8.4 Discrete attributes 250
8.5 Advantages of linear models 251
8.6 Beyond linearity 252
8.6.1 Generalized linear representation 252
8.6.2 Enhanced representation 255
8.6.3 Polynomial regression 256
8.6.4 Piecewise-linear regression 257
8.7 Conclusion 258
8.8 Further readings 258
References 259
9 Regression trees 261
9.1 Introduction 261
9.2 Regression tree model 262
9.2.1 Nodes and branches 262
9.2.2 Leaves 262
9.2.3 Split types 262
9.2.4 Piecewise-constant regression 262
9.3 Growing 263
9.3.1 Algorithm outline 264
9.3.2 Target function summary statistics 265
9.3.3 Target value assignment 266
9.3.4 Stop criteria 267
9.3.5 Split selection 268
9.3.6 Split application 271
9.3.7 Complete process 272
9.4 Pruning 274
9.4.1 Pruning operators 275
9.4.2 Pruning criterion 275
9.4.3 Pruning control strategy 277
9.5 Prediction 277
9.6 Weighted instances 278
9.7 Missing value handling 279
9.7.1 Fractional instances 279
9.7.2 Surrogate splits 284
9.8 Piecewise linear regression 284
9.8.1 Growing 285
9.8.2 Pruning 289
9.8.3 Prediction 290
9.9 Conclusion 292
9.10 Further readings 292
References 293
10 Regression model evaluation 295
10.1 Introduction 295
10.1.1 Dataset performance 295
10.1.2 Training performance 295
10.1.3 True performance 295
10.2 Performance measures 296
10.2.1 Residuals 296
10.2.2 Mean absolute error 297
10.2.3 Mean square error 297
10.2.4 Root mean square error 299
10.2.5 Relative absolute error 299
10.2.6 Coefficient of determination 300
10.2.7 Correlation 301
10.2.8 Weighted performance measures 301
10.2.9 Loss functions 302
10.3 Evaluation procedures 303
10.3.1 Hold-out 304
10.3.2 Cross-validation 304
10.3.3 Leave-one-out 305
10.3.4 Bootstrapping 305
10.3.5 Choosing the right procedure 307
10.4 Conclusion 309
10.5 Further readings 309
References 310
Part IV Clustering 311
11 (Dis)similarity measures 313
11.1 Introduction 313
11.2 Measuring dissimilarity and similarity 313
11.3 Difference-based dissimilarity 314
11.3.1 Euclidean distance 314
11.3.2 Minkowski distance 315
11.3.3 Manhattan distance 316
11.3.4 Canberra distance 316
11.3.5 Chebyshev distance 317
11.3.6 Hamming distance 318
11.3.7 Gower’s coefficient 318
11.3.8 Attribute weighting 320
11.3.9 Attribute transformation 320
11.4 Correlation-based similarity 321
11.4.1 Discrete attributes 322
11.4.2 Pearson’s correlation similarity 322
11.4.3 Spearman’s correlation similarity 323
11.4.4 Cosine similarity 323
11.5 Missing attribute values 324
11.6 Conclusion 325
11.7 Further readings 325
References 326
12 k-Centers clustering 328
12.1 Introduction 328
12.1.1 Basic principle 328
12.1.2 (Dis)similarity measures 329
12.2 Algorithm scheme 330
12.2.1 Initialization 331
12.2.2 Stop criteria 331
12.2.3 Cluster formation 331
12.2.4 Implicit cluster modeling 332
12.2.5 Instantiations 332
12.3 k-Means 334
12.3.1 Center adjustment 335
12.3.2 Minimizing dissimilarity to centers 336
12.4 Beyond means 338
12.4.1 k-Medians 338
12.4.2 k-Medoids 339
12.5 Beyond (fixed) k 342
12.5.1 Multiple runs 343
12.5.2 Adaptive k-centers 343
12.6 Explicit cluster modeling 343
12.7 Conclusion 345
12.8 Further readings 345
References 347
13 Hierarchical clustering 349
13.1 Introduction 349
13.1.1 Basic approaches 349
13.1.2 (Dis)similarity measures 349
13.2 Cluster hierarchies 351
13.2.1 Motivation 351
13.2.2 Model representation 352
13.3 Agglomerative clustering 353
13.3.1 Algorithm scheme 353
13.3.2 Cluster linkage 356
13.4 Divisive clustering 361
13.4.1 Algorithm scheme 361
13.4.2 Wrapping a flat clustering algorithm 361
13.4.3 Stop criteria 362
13.5 Hierarchical clustering visualization 364
13.6 Hierarchical clustering prediction 366
13.6.1 Cutting cluster hierarchies 366
13.6.2 Cluster membership assignment 368
13.7 Conclusion 369
13.8 Further readings 370
References 371
14 Clustering model evaluation 373
14.1 Introduction 373
14.1.1 Dataset performance 373
14.1.2 Training performance 374
14.1.3 True performance 374
14.2 Per-cluster quality measures 376
14.2.1 Diameter 376
14.2.2 Separation 377
14.2.3 Isolation 378
14.2.4 Silhouette width 379
14.2.5 Davies–Bouldin index 382
14.3 Overall quality measures 385
14.3.1 Dunn index 386
14.3.2 Average Davies–Bouldin index 387
14.3.3 C index 388
14.3.4 Average silhouette width 389
14.3.5 Loglikelihood 390
14.4 External quality measures 393
14.4.1 Misclassification error 393
14.4.2 Rand index 394
14.4.3 General relationship detection measures 396
14.5 Using quality measures 397
14.6 Conclusion 398
14.7 Further readings 398
References 399
Part V Getting Better Models 401
15 Model ensembles 403
15.1 Introduction 403
15.2 Model committees 404
15.3 Base models 406
15.3.1 Different training sets 406
15.3.2 Different algorithms 412
15.3.3 Different parameter setups 412
15.3.4 Algorithm randomization 412
15.3.5 Base model diversity 418
15.4 Model aggregation 420
15.4.1 Voting/Averaging 420
15.4.2 Probability averaging 422
15.4.3 Weighted voting/averaging 424
15.4.4 Using as attributes 427
15.5 Specific ensemble modeling algorithms 431
15.5.1 Bagging 431
15.5.2 Stacking 433
15.5.3 Boosting 433
15.5.4 Random forest 443
15.5.5 Random Naïve Bayes 446
15.6 Quality of ensemble predictions 448
15.7 Conclusion 449
15.8 Further readings 450
References 451
16 Kernel methods 454
16.1 Introduction 454
16.2 Support vector machines 457
16.2.1 Classification margin 457
16.2.2 Maximum-margin hyperplane 460
16.2.3 Primal form 460
16.2.4 Dual form 464
16.2.5 Soft margin 468
16.3 Support vector regression 473
16.3.1 Regression tube 474
16.3.2 Primal form 475
16.3.3 Dual form 475
16.4 Kernel trick 482
16.5 Kernel functions 484
16.5.1 Linear kernel 485
16.5.2 Polynomial kernel 485
16.5.3 Radial kernel 485
16.5.4 Sigmoid kernel 486
16.6 Kernel prediction 487
16.7 Kernel-based algorithms 489
16.7.1 Kernel-based SVM 489
16.7.2 Kernel-based SVR 492
16.8 Conclusion 494
16.9 Further readings 495
References 496
17 Attribute transformation 498
17.1 Introduction 498
17.2 Attribute transformation task 499
17.2.1 Target task 499
17.2.2 Target attribute 500
17.2.3 Transformed attribute 500
17.2.4 Training set 500
17.2.5 Modeling transformations 500
17.2.6 Nonmodeling transformations 503
17.3 Simple transformations 504
17.3.1 Standardization 504
17.3.2 Normalization 505
17.3.3 Aggregation 506
17.3.4 Imputation 507
17.3.5 Binary encoding 508
17.4 Multiclass encoding 510
17.4.1 Encoding and decoding functions 511
17.4.2 1-ok-k encoding 514
17.4.3 Error-correcting encoding 515
17.4.4 Effects of multiclass encoding 519
17.5 Conclusion 521
17.6 Further readings 521
References 522
18 Discretization 524
18.1 Introduction 524
18.2 Discretization task 525
18.2.1 Motivation 525
18.2.2 Task definition 526
18.2.3 Discretization as modeling 527
18.2.4 Discretization quality 529
18.3 Unsupervised discretization 530
18.3.1 Equal-width intervals 530
18.3.2 Equal-frequency intervals 531
18.3.3 Nonmodeling discretization 532
18.4 Supervised discretization 533
18.4.1 Pure-class discretization 533
18.4.2 Bottom-up discretization 535
18.4.3 Top-down discretization 546
18.5 Effects of discretization 551
18.6 Conclusion 553
18.7 Further readings 553
References 556
19 Attribute selection 558
19.1 Introduction 558
19.2 Attribute selection task 559
19.2.1 Motivation 559
19.2.2 Task definition 560
19.2.3 Algorithms 561
19.3 Attribute subset search 562
19.3.1 Search task 562
19.3.2 Initial state 563
19.3.3 Search operators 564
19.3.4 State selection 564
19.3.5 Stop criteria 565
19.4 Attribute selection filters 568
19.4.1 Simple statistical filters 568
19.4.2 Correlation-based filters 571
19.4.3 Consistency-based filters 575
19.4.4 RELIEF 577
19.4.5 Random forest 584
19.4.6 Cutoff criteria 585
19.4.7 Filter-driven search 586
19.5 Attribute selection wrappers 588
19.5.1 Subset evaluation 588
19.5.2 Wrapper attribute selection 591
19.6 Effects of attribute selection 593
19.7 Conclusion 598
19.8 Further readings 599
References 600
20 Case studies 602
20.1 Introduction 602
20.1.1 Datasets 603
20.1.2 Packages 603
20.1.3 Auxiliary functions 603
20.2 Census income 605
20.2.1 Data loading and preprocessing 606
20.2.2 Default model 608
20.2.3 Incorporating misclassification costs 610
20.2.4 Pruning 616
20.2.5 Attribute selection 624
20.2.6 Final models 628
20.3 Communities and crime 631
20.3.1 Data loading 632
20.3.2 Data quality 632
20.3.3 Regression trees 634
20.3.4 Linear models 635
20.3.5 Attribute selection 636
20.3.6 Piecewise-linear models 639
20.4 Cover type 640
20.4.1 Data loading and preprocessing 640
20.4.2 Class imbalance 641
20.4.3 Decision trees 641
20.4.4 Class rebalancing 644
20.4.5 Multiclass encoding 647
20.4.6 Final classification models 649
20.4.7 Clustering 650
20.5 Conclusion 654
20.6 Further readings 655
References 655
Closing 657
A Notation 659
A.1 Attribute values 659
A.2 Data subsets 659
A.3 Probabilities 660
B R packages 661
B.1 CRAN packages 661
B.2 DMR packages 662
B.3 Installing packages 663
References 664
C Datasets 666
Index 667

فرمت : word
تعداد صفحات :35
مقدمه :
چون روابط بین کارگر و کارفرما از نظر کار و حقوق ناشی از آن از صورت فردی و خصوصی خارج شده و طبق قوانین و مقرراتی که در کشورهای مختلف وضع و به موقع اجرا در آمده بیشتر جنبه ی عمومی و اجتماعی پیدا کرده است و با توجه به توسعه و اهمیتی که این روابط و آثار ناشی از آن در کشورهای مترقی پیدا نموده است در حقیقت فصل جدیدی را در حقوق باز کرده است و رشته ی تازه ای از علم حقوق را بوجود آورده است. چنان که در هر یک از این کشورها عده ی زیادی از علما و متتبعین وقت خود را صرف مطالعه و بحث در حقوق کار و بررسی و انتقاد از مباحث مختلفی که در این علم بوجود آمده است مینمایند.
بعلاوه وزارتخانه ها ، موسسات عمومی ، سازمان های کارگری و کارفرمایی و کمیسیون های رسیدگی به حل اختلاف و حکمیت و... که در قوانین مربوطه تشکیل آنها پیش بینی شده است وحتی محاکم دادگستری مقررات مربوطه را مورد نظر قرار داده و احکام لازم را طبق آن مقررات صادر و به موقع اجرا در می آورند و بدین ترتیب این رشته از حقوق چه از نظر علمی و چه از نظر عملی و اجرایی توسعه ی کافی یافته و جای خود را از نظر علم و عمل ، هر دو باز کرده است و چند سالی است که در دانشکده های حقوق ایران نیز به تبعیت از دانشکده های حقوق اروپا مورد بحث و تدریس قرار می گیرد.1
1-حقوق کار و بیمه های اجتماعی – دکتر جزایری، شمس الدین – ص 4 و 5
در کشور ما حقوق کار شاخه ی بسیار جوانی از حقوق بوده و کمتر مورد بحث قرار گرفته است و با وجود تصویب قانون کار و مقررات آن بصورتی که در کشورهای مترقی مورد اجرا در آمده توسعه نیافته است و شامل طبقات محدود تری می گردد و در مورد طبقات مشمول هم بعلت مشکلات هنوز بطور کامل اجرا نشده است.[1]
همانطور که گفته شد منابع حقوق کار در ایران بسیار محدود بوده و کار بنده را در ارائه تحقیقی جامع و مانع با مشکل رو به رو میکرد. با این وجود سعی کردم با استفاده از همان منابع محدود و استفاده از تجربیات و راهنمایی های قضات عالیقدر دیوان عدالت اداری که همچون دوستی دلسوز و فداکار در تمام مراحل ، بنده را راهنمایی کرده و تا جای ممکن به بنده کمک رسانیدند توانستم تحقیقی نسبتا کامل راجع به یکی از آراء دیوان عدالت اداری به اساتید محترم ارائه نمایم، امیدوارم مورد قبول قرار گیرد.
[1] - نظر به اینکه قریب چهل سال از تألیف کتاب مذکور میگذرد و در حال حاضر در ایران، مقررات کار تحول عظیمی پیدا کرده است و گروههای دیگری که سابقاً مشمول قانون کار نبودند مثل کارگران بخش کشاورزی و مستخدمین منازل به موجب ماده 189 و 190 قانون کار مصوب سال 1369 مشمول قانون کار شدهاند. بنابراین امروزه بر اساس اصل شمول قانون کار کلیه اشخاصی که در جامعه درازای کار خود عوض دریافت میکنند مشمول قانون کار خواهند بود مگر در مواردی که مستثنی شده باشد (اصل شمول قانون کار). آرای بسیاری نیز در همین زمینه در شعب مختلف دیوان در رابطه بین کارگر و کارفرما صادر شده است که مؤید گسترش و توسعه حقوق کار در ایران میباشد.