-
حرية الوصول المقاله
1 - پیش بینی قیمت سهام با استفاده از روش داده کاوی
مجتبی حاجی غلامیاین مقاله به بررسی روشهای داده کاوی برای پیشبینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیشبینی روند با استفاده از داده کاوی میپردازد. این مقاله همچنین به بررسی تأثیر استفاده از روشهای داده کاوی در بازار سهام و کارایی آن در این زمینه میپردازد. در این ت أکثراین مقاله به بررسی روشهای داده کاوی برای پیشبینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیشبینی روند با استفاده از داده کاوی میپردازد. این مقاله همچنین به بررسی تأثیر استفاده از روشهای داده کاوی در بازار سهام و کارایی آن در این زمینه میپردازد. در این تحقیق یک رویکرد یادگیری ماشینی معرفی میشود که اطلاعات را با استفاده از داده های موجودی عمومی میسازد و از آن اطلاعات برای پیشبینی دقیق استفاده میکند. همچنین به بررسی گونههای متنوعی از روشهای داده کاوی میپردازد که در حوزه تجزیه و تحلیل بازارهای مالی کاربرد دارند و به طور ویژه تمرکز خود را بر پیشبینی روندهای بازار سهام معطوف میدارد. مطالعه ما نشان میدهد که از آنجایی که بازارهای مالی پویا و متغیر هستند و همواره تحت تأثیر عوامل اقتصادی، سیاسی و اجتماعی قرار دارند، استفاده از روشهای یادگیری ماشینی و داده کاوی میتواند در پیشبینی دقیقتر حرکات قیمتی سهام مؤثر واقع شود. با توجه به دادههای گسترده و پیچیده موجود در بازارهای مالی، روشهای داده کاوی میتوانند پتانسیل فراوانی در کشف الگوهای پنهان و تعیین ارتباط میان متغیرهای مختلف داشته باشند. در این راستا، الگوریتمهای مختلف یادگیری ماشینی مانند شبکههای عصبی مصنوعی، ماشینهای بردار پشتیبان و جنگلهای تصادفی به عنوان مثال مورد استفاده قرار گرفته و در کنار آنالیزهای آماری، به بهبود قابلیتهای تحلیلگران و سرمایهگذاران در تصمیمگیریهای اقتصادی کمک میکنند. استفاده از دادههای بزرگ و تحلیلهای پیچیده همچنین به توسعه استراتژیهای معاملاتی هوشمندانه که میتوانند به بهینهسازی بازگشت سرمایه کمک کنند، کمک نموده است. برای نمونه، تحلیلگران میتوانند با ادغام دادههای احساسی حاصل از شبکههای اجتماعی در مدلهای پیشبینی خود، دقت تخمینهای خود را ارتقا بدهند. این مطالعه تأکید دارد که توسعه پایدار در بازارهای مالی نیازمند تحلیلی دقیقتری از دادهها است که در نهایت منجر به تصمیمگیریهای مبتنی بر داده و فرآیندهای معاملاتی قوی تر میشود. تفاصيل المقالة -
حرية الوصول المقاله
2 - ارزیابی مکانی حساسیت سیلگیری با استفاده از روشهای تقویت تطبیقی و بستهبندی در یادگیری ماشین
حسین آقا محمدی محمدحسن وحیدنیا زهرا عزیزیسیل هر ساله میلیاردها دلار خسارت به کشورها وارد می کند که معیشت افراد را تهدید می کند. در نتیجه، تهدیدات اجتماعی-اقتصادی قابل توجهی برای جمعیت در سراسر جهان ایجاد می کند. بنابراین باید کنترل و مهار شود. در این راستا الگوریتمهای یادگیری ماشین به همراه سیستمهای اطلاعات أکثرسیل هر ساله میلیاردها دلار خسارت به کشورها وارد می کند که معیشت افراد را تهدید می کند. در نتیجه، تهدیدات اجتماعی-اقتصادی قابل توجهی برای جمعیت در سراسر جهان ایجاد می کند. بنابراین باید کنترل و مهار شود. در این راستا الگوریتمهای یادگیری ماشین به همراه سیستمهای اطلاعات جغرافیایی، ابزارهای اولیهای هستند که در مدلسازی و تحلیل کنترل سیلاب مؤثر هستند. هدف از این تحقیق شناسایی بخشی از مناطق حساس به سیل در حوضه آبریز هراز در استان مازندران با استفاده از روشهای مجموعهای در الگوریتمهای یادگیری ماشینی است. روند پژوهش به شرح زیر میباشد: ابتدا داده های نقاط سیلاب تهیه شد. سپس، 70 درصد از حدود 200 موقعیت نمونه برای مدلسازی و 30 درصد باقیمانده برای اعتبارسنجی نقشه های تولید شده استفاده شدند. سپس عوامل موثر شامل زاویه شیب، جهت شیب، توپوگرافی، نوع خاک، پوشش زمین، فاصله از رودخانه، بارندگی سالانه، شاخص پوشش گیاهی تفاوت نرمال شده، شاخص انتقال رسوب، شاخص رطوبت توپوگرافی و شاخص تراکم آبراهه برای وزن دادن تاثیر هر عامل با استفاده از الگوریتم های یادگیری ماشین جمعی استفاده شده است. بر اساس نتایج این مطالعه، منحنی مشخصه عملکرد سیستم (ROC) ترسیم شد و مساحت زیر منحنی (AUC) برای اعتبار سنجی نقشه منطقه مستعد سیل محاسبه شد. یافتهها نشان داد که مدل تقویت تطبیقی دقیقتر از مدل بگینگ در تهیه نقشه حساسیت سیلابی است. تهیه نقشه حساسیت سیل نقشی محوری در توانمندسازی برنامهریزان و مدیران شهری برای کاهش و حفاظت پیشگیرانه در برابر پیامدهای نامطلوب سیل بازی میکند. مقامات مدیریت سیل در وزارت نیرو می توانند از مدل مجموعه پیشنهادی برای کمک به مدیریت بلایا و کاهش خطرات در مطالعات آتی استفاده کنند. تفاصيل المقالة -
حرية الوصول المقاله
3 - Application of Machine Learning Models for flood risk assessment and producing map to identify flood prone areas: Literature Review
Parisa Firoozishahmirzadi Shaghayegh Rahimi Zeinab Esmaeili SerajiFloods as the most destructive natural disaster are highly complex to model. The research on the advancement of flood risk assessment models contributed to risk reduction, policy suggestion, reduction of the property damage and minimization of the loss of human life. Dur أکثرFloods as the most destructive natural disaster are highly complex to model. The research on the advancement of flood risk assessment models contributed to risk reduction, policy suggestion, reduction of the property damage and minimization of the loss of human life. During the past two decades, machine learning methods contributed highly in the advancement of modeling systems, providing better performance and cost-effective solutions. Researchers through introducing novel ML methods and hybridizing of them aim at discovering more accurate and efficient models. The main contribution of this literature review is to demonstrate the state of ML models from two perspectives; 1-flood risk assessment, 2- producing flood reliable map to give insight into the most suitable models. In this literature is shown the important ML models that can have impressive effect on flood models are Super Vector Mane, Decision Tree, Logistic Regression and Random Forest respectively. Hybridization different kind of ML methods, data fusion that is a prevalent way to deal with imperfect raw data for capturing reliable, ensemble algorithm and model optimization are reported as the most effective strategies for the improvement of ML methods. Random Forest models do well with high dimensional data and their flexibility makes them suitable for solving more problems. ANN models are especially good at modeling multifarious nonlinear networks that are difficult to describe with functions directly. This study provides a concise and comprehensive reference for researchers تفاصيل المقالة -
حرية الوصول المقاله
4 - بهینهسازی پیشبینی تابش خورشیدی بر اساس بستر اینترنت اشیاء در نیروگاه فوتولتائیک
ندا اشرفی خوزانی مریم محمودی شبنم نصر اصفهانیارامتر مقدار تابش خورشيدي يکي از مهمترين پارامترها در تعيين مقدار توان خروجي پنلهاي فتوولتائيک است. پيش¬بيني دقيق اين پارامتر براي برنامه¬ريزي در واحدهاي دیسپچینگ(Dispatching ) و مديريت بار از اهميت ويژهاي برخوردار است. عدم قطعيت در ميزان تابش خورشيدي و سختي پيشبيني أکثرارامتر مقدار تابش خورشيدي يکي از مهمترين پارامترها در تعيين مقدار توان خروجي پنلهاي فتوولتائيک است. پيش¬بيني دقيق اين پارامتر براي برنامه¬ريزي در واحدهاي دیسپچینگ(Dispatching ) و مديريت بار از اهميت ويژهاي برخوردار است. عدم قطعيت در ميزان تابش خورشيدي و سختي پيشبيني آن، طراحان را با چالشهاي اقتصادي و مديريتي مواجه ميکند. در اين پژوهش يک روش پيشبيني با دقت بالا با استفاده از روشهاي مبتني بر درخت و بهبود عملکرد اين روشها به کمک الگوريتمهاي فرا ابتکاري ارائه ميشود. تأکید اصلي در روش پيشنهادي عدم بيش-برازش و قابليت اتکاي بالا و قابليت بهکارگيري در سيستمهاي اينترنت اشياء است. بنابراین، الگوريتمهاي فراابتکاري در بهينهسازي روشهاي مبتني بر درخت و همینطور در انتخاب ويژگي و انتخاب نمونهها نيز دخيل شدهاند. لذا استفاده از روشهاي فراابتکاري به عنوان جنبهي نوآوري اصلي اين پژوهش، نه تنها استفاده براي به دست آوردن تنظيمات بهينهي مدلهاي يادگيري ماشين بلکه در کاهش اثر نويزها، دادههاي پرت(Outlier) و وروديهاي کماثر نيز به بهبود کيفيت خروجي نهايي کمک کرده است. به علاوه مناسبسازي نتايج پيشبيني براي استفاده عملي در محيط نيروگاههاي فتوولتائيک موضوع پراهميتي است. اين موضوع که از طريق تابع برازش نوآورانه اين پژوهش در بهينهسازي مدلها انجام پذيرفته است، باعث ميشود که خروجي نهايي علاوه بر دقت بالا از نظر سهولت پيادهسازي در محيطهاي واقعي نيروگاههاي فتوولتائيک نيز بهينه باشد. خروجي نهايي، يک مدل قوي است که با معيار مربع-R داراي امتياز95/0 است و از نظر سادگي تا حد زيادي بهينه است. تفاصيل المقالة -
حرية الوصول المقاله
5 - توسعه یک سیستم توصیهکننده چند عاملی برای دستیاران خرید هوشمند
رمضان تیموری یانسری مجتبی آجودانیبا توجه به حجم فزاینده اطلاعات و خدمات موجود در وب، ارائه ابزارهایی مانند سیستمهای توصیهکننده به وبسایتها و برنامههای کاربردی که میتوانند به کاربران در دستیابی به اطلاعات و خدمات متناسب با علایقشان کمک کنند، ضروری است. به همین دلیل، ارائه راهنمایی و پیشنهاد مناسب أکثربا توجه به حجم فزاینده اطلاعات و خدمات موجود در وب، ارائه ابزارهایی مانند سیستمهای توصیهکننده به وبسایتها و برنامههای کاربردی که میتوانند به کاربران در دستیابی به اطلاعات و خدمات متناسب با علایقشان کمک کنند، ضروری است. به همین دلیل، ارائه راهنمایی و پیشنهاد مناسب به کاربران در انتخابهای مختلف، مطابق با اولویتهای کاربر در حوزههای مختلف جایگاه خاصی پیدا کرده است. سامانههای توصیه کننده سیستمهای اطلاعاتی هستند که با مدلسازی رفتار کاربران در محیطهای عملیاتی در رتبهبندی، مقایسه، انتخاب و ترجیحات اقلام کاربران، با محدود کردن فضای جستجوی از طریق توصیههای با دقت و کیفیت بالا، در فرآیند تصمیمگیری کمک میکنند. در این پژوهش سیستم توصیه کننده چند عاملی پیشنهاد شد که بتواند به عنوان دستیار خرید در فرآیند خرید توصیه-های مناسبی ارائه دهد. برای تحلیل مدل پیشنهادی مجموعه داده فروش یک فروشگاه مستقر در بریتانیا شامل 1067371 رکورد از داده-های فروش آنلاین، مورد استفاده قرار گرفته است. با شبیه سازی مدل پیشنهادی نتایج حاصل از به کارگیری مدل بر روی دادههای مربوط به مشتریان مورد تجزیه و تحلیل قرار گرفت. نتایج به کارگیری مدل پیشنهادی نشان داد، مدل پیشنهادی در ارزیابی پارامترهای مورد استفاده در مقایسه با روشهای رایج در این حوزه دارایی کارایی مناسبی میباشد. تفاصيل المقالة -
حرية الوصول المقاله
6 - Developing Financial Distress Prediction Models Based on Imbalanced Dataset: Random Undersampling and Clustering Based Undersampling Approaches
Seyed behrooz Razavi ghomi Alireza Mehrazin Mohammad reza shoorvarzi Abolghasem Masih AbadiSo far, distress prediction models have been based on balanced, such sampling is not consistent with the reality of the statistical community of companies. If the data are balanced, the bias in sample selection may lead to an underestimation of typeI error and an overes أکثرSo far, distress prediction models have been based on balanced, such sampling is not consistent with the reality of the statistical community of companies. If the data are balanced, the bias in sample selection may lead to an underestimation of typeI error and an overestimation of the typeII error of models. Although imbalanced data-based models are compatible with reality, they have a higher typeI error compared to balanced data-based models. The cost of typeI error is more important to Beneficiaries than the cost of typeII error. In this study, for reducing typeI error of imbalanced data-based models, random and clustering-based undersampling were used. Tested data included 760 companies since 2007-2007 with 4 different degrees and the results of the H1 to H3 test represented them. In all cases of the typeI error, typeII error of balanced data-based models were lower and more, respectively, compared to imbalanced data-based models; also, in most cases, the geometric mean of balanced data-based models was higher compared to imbalanced data-based models, respectively. The results of testing H4 to H6 show that in most cases, typeI error, typeII error and the geometric mean criterion of models based on modified imbalanced data were less, more, and more, respectiively compared to the models based on imbalanced data, in other words, applying Undersampling methods on imbalanced training data led to a decrease in typeI error and an increase in typeII error and geometric mean criteria. As a result using models based on modified imbalanced data is suggested to Beneficiaries تفاصيل المقالة -
حرية الوصول المقاله
7 - Predicting the Top and Bottom Prices of Bitcoin Using Ensemble Machine Learning
Emad Koosha Mohsen Seighaly Ebrahim AbbasiThe purpose of the present study is to use the ensemble learning model to combine the predictions of Random Forest (RF), Long-Short Term Memory (LSTM), and Recurrent Neural Network (RNN) models for the Top and Bottom Prices of Bitcoin. To this aim, in the first stage, B أکثرThe purpose of the present study is to use the ensemble learning model to combine the predictions of Random Forest (RF), Long-Short Term Memory (LSTM), and Recurrent Neural Network (RNN) models for the Top and Bottom Prices of Bitcoin. To this aim, in the first stage, Bitcoin's top and bottom prices are predicted using three machine learning models. In the second stage, the outputs of the models are presented as feature variables to the Extreme Gradient Boosting (Xgboost) and Light Gradient Boosting Machine (LightGBM) models to predict the price tops and bottoms. Then, in the third stage, the outputs of the second stage are combined through the voting ensemble classifier pattern to predict the next top and bottom prices. The data of top and bottom Bitcoin prices in the 1-hour time frame from 1/1/2018 to the end of 6/30/2022 are used as target variables and 31 technical analysis indicators as feature variables for the three models in the first stage. 70% of the data is regarded as learning data, and the remaining 30% is considered for the second and third stages. In the second phase, 50% of the data is considered for learning the output of the previous stage and 50% for the test data. Finally, the prediction values are evaluated with real data for the three models and the proposed ensemble learning model. The results reveal the improvement of the performance, precision, and accuracy of the ensemble model compared to weak learning models. تفاصيل المقالة -
حرية الوصول المقاله
8 - Designing a Trading Strategy to Buy and Sell the Stock of Companies Listed on the New York Stock Exchange Based on Classification Learning Algorithms
Nasser Heydari Majid Zanjirdar Ali LalbarThis research investigated the development of a stock trading strategy for companies on the New York Stock Exchange (NYSE), a prominent global market. Data was acquired from established libraries and the Yahoo Finance database. The model employed technical analysis indi أکثرThis research investigated the development of a stock trading strategy for companies on the New York Stock Exchange (NYSE), a prominent global market. Data was acquired from established libraries and the Yahoo Finance database. The model employed technical analysis indicators and oscillators as input features. Machine learning classification algorithms were used to design trading strategies, and the optimal model was identified based on statistical performance metrics. Accuracy, recall, and F-measure were utilized to evaluate the classification algorithms. Additionally, advanced statistical methods and various software tools were implemented, including Python, Spyder, SPSS, and Excel. The Kruskal-Wallis test was employed to assess the statistical differences between the designed strategies. A sample of 41 actively traded NYSE companies across diverse sectors such as financial services, healthcare, technology, communication services, consumer cyclicals, consumer staples, and energy were chosen using a filter-based approach on June 28th, 2021. The selection criteria included a market capitalization exceeding $200 billion and an average daily trading volume surpassing 1 million shares. Evaluation metrics revealed that the designed random forest trading strategy achieved a good fit with the data and exhibited statistically significant differences from other strategies based on classification learning algorithm. تفاصيل المقالة -
حرية الوصول المقاله
9 - Early Warning Model for Solvency of Insurance Companies Using Machine Learning: Case Study of Iranian Insurance Companies
Saeed Naseri Khezerlou Atousa GoodarziStakeholders of an organization avoid undesirable outcomes caused by ignoring the risks. Various models and tools can be used to predict future outcomes, aiming to avoid the undesirable ones. Early warning models are one of the approaches that could help them in doing s أکثرStakeholders of an organization avoid undesirable outcomes caused by ignoring the risks. Various models and tools can be used to predict future outcomes, aiming to avoid the undesirable ones. Early warning models are one of the approaches that could help them in doing so. This study focuses on developing an early warning system using machine learning algorithms for predicting solvency in the insurance industry. This study analyses 23 financial ratios from Iranian general insurance companies listed on the Tehran Stock Exchange between 2015 and 2020. The model uses Decision Tree, Random Forest, Artificial Neural Networks, Gradient Boosting Machine and XGBoost algorithms, with Boruta as a feature selection method. The dependent variable is the solvency margin ratio, and the other 22 ratios are the independent variables, which Boruta reduces to 7 variables. Firstly, the performance of the machine learning models on two datasets, one with 22 independent variables and one with 7, is compared based on RMSE values. The XGBoost algorithm performs the best on both data sets. Additionally, the study predicts the 2020 values for 19 insurance companies, performs stage classifications, and compares actual stages to predicted stages. In this analysis, Random Forest has the best estimate accuracy on both data sets, while Gradient Boosting Machine has the best estimate accuracy on the Boruta data set. Finally, the study compares the machine learning models' results in terms of capital adequacy classification, where Random Forest performs the best on both data sets, and Gradient Boosting Machine on the Boruta data set. تفاصيل المقالة -
حرية الوصول المقاله
10 - Examining Financial Performance and Corporate Governance in Tehran Stock Exchange: A Hybrid Machine Learning and Data Envelopment Analysis Approach
Pooneh Noparvar Saravi Morteza Bagheri Seyed Sadegh HadianIn the backdrop of an ever-evolving global business landscape and intense market competition, companies are faced with the imperative of strategically managing factors that influence their financial performance. This research delves into the intricate relationship betwe أکثرIn the backdrop of an ever-evolving global business landscape and intense market competition, companies are faced with the imperative of strategically managing factors that influence their financial performance. This research delves into the intricate relationship between financial performance enhancement and corporate governance, with particular attention to the mediating role of human capital. The study centers its investigation on companies listed on the Tehran Stock Exchange and comprises a comprehensive sample of 140 top-level managers. A composite sampling approach, comprising a simple random sampling technique and Morgan's table, was employed to judiciously select a representative cohort of 103 participants. In the pursuit of rigorous academic analysis, the research leverages a goal-oriented, applied methodology, employing a descriptive survey design and a quantitative approach. The primary data for the study were methodically collected through rigorously designed and standardized questionnaires. Subsequent to data acquisition, a meticulous analytical process was undertaken using the Partial Least Squares (PLS) software, aligning with the latest developments in quantitative research techniques. The results stemming from hypothesis testing offer compelling insights into the dynamic relationship between corporate governance, human capital, and financial performance enhancement. Our findings convincingly demonstrate a significant positive impact of both corporate governance and human capital on the enhancement of financial performance in the context of Tehran Stock Exchange's listed companies. Furthermore, the empirical evidence strongly suggests that human capital plays a pivotal mediating role in the relationship between corporate governance practices and financial performance improvements. This study, in its pursuit of academic rigor, underscores the effectiveness of a novel hybrid approach, thoughtfully integrating machine learning and data envelopment analysis, to comprehensively examine the intricate interplay between financial performance enhancement and corporate governance within the context of the Tehran Stock Exchange's listed companies. The study contributes to the evolving body of literature in this domain and provides valuable insights for practitioners, policymakers, and researchers. تفاصيل المقالة -
حرية الوصول المقاله
11 - طبقه بندی میوه پاپایا برمبنای رسیدگی، با استفاده از یادگیری ماشین و رویکرد یادگیری انتقالی
محمد قربانی مصطفی قاضی زاده احسائی کاظم جعفری نعیمیدرجه بندی و بسته بندی میوه ها بر اساس بازرسی های بصری می تواند زمان بر، مخرب و غیر قابل اطمینان باشد. هدف از پژوهش انجام شده ارائه یک روش طبقه بندی هوشمند، سریع و قابل اطمینان جهت تشخیص میزان رسیدگی میوه پاپایا در سه سطح نارس، نمیه رسیده و رسیده میباشد.تعدادکل تصاویر مو أکثردرجه بندی و بسته بندی میوه ها بر اساس بازرسی های بصری می تواند زمان بر، مخرب و غیر قابل اطمینان باشد. هدف از پژوهش انجام شده ارائه یک روش طبقه بندی هوشمند، سریع و قابل اطمینان جهت تشخیص میزان رسیدگی میوه پاپایا در سه سطح نارس، نمیه رسیده و رسیده میباشد.تعدادکل تصاویر مورد استفاده در این مقاله 300 تصویر می باشد که برای هر کدام از سطوح تعداد 100 تصویر جمع آوری گردیده است.در این پژوهش استفاده از دو رویکرد یادگیری ماشین و یادگیری انتقالی برای طبقه بندی وضعیت میزان رسیدگی میوه پاپایا پیشنهاد شده است.رویکرد یادگیری ماشین شامل استفاده از سه توصیف گر ویژگی و سه طبقه بندی کننده مختلف می باشدکه عبارت انداز: الگوریتم دو دویی محلی (LBP)، ماتریس هم رخداد سطح خاکستری (GLCM)،هیستوگرام گرادیان های جهت دار(HOG)، الگوریتم طبقه بندیk- نزدیک ترین همسایه(KNN)، ماشین بردار پشتیبان(SVM)، و الگوریتم طبقه بندی کننده بیزی ساده (Naïve Bayes). روشهای یادگیری انتقالی شامل استفاده از شش مدل یاد گیری عمیق از پیش آموزش داده شده Alexnet,Googlenet,Resnet101,Resnet50,Resnet18,VGG19 می باشد.طبقه بندیکننده KNN با استفاده از توصیف گر ویژگی HOG توانسته است به صحت4/95 درصد و زمان آموزش 3:52 ثانیه دست پیدا کند.طبقه بندی کننده مبتنی بر رویکرد یادگیری انتقالی VGG19 با بدست آوردن صحت 100 درصدی و زمان آموزش 10:42 ثانیه توانست عملکرد بهتری را در میان سایر شبکه های یادگیری عمیق ثبت کند.دو روش طبقه بندی با استفاده از روش های یادگیری ماشین و یادگیری انتقالی توانستهاند هر کدام صحت 4/95، و 100 درصدی را بدست بیاورند که به ترتیب 7/0 و 6 درصد بیشتر از روشهای پیشنهادی موجود می باشد. تفاصيل المقالة -
حرية الوصول المقاله
12 - Diabetes detection via machine learning using four implemented spanning tree algorithms
Yas Ghiasi Mehdi Seifbarghy Davar PishvaThis paper considers an accurate and efficient diabetes detection scheme via machine learning. It uses the science of data mining and pattern matching in its diabetes diagnosis process. It implements and evaluates 4 machine learning classification algorithms, namely De أکثرThis paper considers an accurate and efficient diabetes detection scheme via machine learning. It uses the science of data mining and pattern matching in its diabetes diagnosis process. It implements and evaluates 4 machine learning classification algorithms, namely Decision tree, Random Forest, XGBoost and LGBM. Then selects and introduces the one that performs the best towards its objective using multi-criteria decision-making methods. Its results reveal that Random Forest algorithm outperformed other algorithms with higher accuracy. It also examines the details of features that have a greater effect on diabetes detection. Considering that diabetes is one of the most deadly, disabling, and costly diseases observed today, its alarmingly increasing rates, and difficulty of its diagnosis because of many vague signs and symptoms, utilization of such approach can help doctors increase accuracy of their diagnosis and treatment schemes. Hence, this paper uses the science of data mining as a tool to gather and analyze existing data on diabetes and help doctors with its diagnosis and treatment process. The main contribution of this paper can therefore be its applied nature to an essential field and accuracy of its pattern recognition via several analytical approaches. تفاصيل المقالة -
حرية الوصول المقاله
13 - Role of Fuzzy Sets on Artificial Intelligence Methods: A literature Review
Cengiz Kahraman Sezi Onar Basar Oztaysi Selcuk CebiMachines can model and improve the human minds capabilities through artificial intelligence. One of the most popular tools of artificial intelligence is fuzzy sets, which can capture and model the vagueness and impreciseness in human thoughts. This paper, first of all, أکثرMachines can model and improve the human minds capabilities through artificial intelligence. One of the most popular tools of artificial intelligence is fuzzy sets, which can capture and model the vagueness and impreciseness in human thoughts. This paper, first of all, introduces the recent extensions of ordinary fuzzy sets and then presents a literature review on the integration of fuzzy sets with other artificial intelligence techniques such as automated reasoning, autonomous agents, multi-agent systems, machine learning, case-based reasoning, deep learning, information reasoning, information representation, natural language processing, symbolic reasoning, and neural networks. Graphical illustrations of literature review results are presented for each of these integrated artificial intelligence techniques. The results of a patent search on fuzzy artificial intelligence are also given. تفاصيل المقالة -
حرية الوصول المقاله
14 - بهینهسازی سبد سهام شرکتهای پذیرفته شده در بورس اوراق بهادار تهران بر اساس روشهای ترکیبی یادگیری ماشین جمعی دوسطحی و الگوریتمهای فرا ابتکاری چند هدفه مبتنی بر رویکرد زمان سنجی بازار
ساناز فریدی امیر دانشور مهدی معدن چی زاج شادی شاهوردیانیدر این مقاله با استفاده از رویکرد زمان سنجی بازار وروشهای یادگیری جمعی همگن و غیر همگن به ارائه سیگنال خرید، نگهداری و فروش و پیشبینی بازار بر اساس ویژگیهای بنیادی ویژگیهای فنی و سری زمانی بازدهی هر شرکت در 100 روز منتهی به روز جاری پرداخته شده است. بر این اساس ، 20 أکثردر این مقاله با استفاده از رویکرد زمان سنجی بازار وروشهای یادگیری جمعی همگن و غیر همگن به ارائه سیگنال خرید، نگهداری و فروش و پیشبینی بازار بر اساس ویژگیهای بنیادی ویژگیهای فنی و سری زمانی بازدهی هر شرکت در 100 روز منتهی به روز جاری پرداخته شده است. بر این اساس ، 208 شرکت که به عنوان شرکتهای فعال بین سالهای 1390 تا 1399 بودند، انتخاب شدند. برای آموزش دادهها توسط ماشین یادگیری جمعی دوسطحی (HHEL) و پیشبینی روند بازار بر اساس استراتژی زمان سنجی بازار ، از دادههای 5 سال 1390 تا 1394 استفاده و برای تست دادهها به منزله بهینهسازی سبد سهام بر اساس بیشینه سازی بازده سبد سهام و کمینه سازی ریسک سبد سهام سرمایهگذاری، از الگوریتمهای MOPSO و NSGA II استفاده و با سبد سرمایه گذاری بدست آمده با استراتژی خرید و نگهداری مقایسه شده است. نتایج نشان داد الگوریتم MOPSO بالاترین بازده سبد سهام را با 96.437 % در مقابل الگوریتم NSGA II با بازدهی 91.157 % و روش سرمایهگذاری یکسان با بازدهی 13.058 % بدست آورده است. همچنین ریسک سبد سرمایهگذاری در الگوریتم NSGA II بسیار پایین تر از ریسک سبد سرمایهگذاری در الگوریتم MOPSO به ترتیب با 0.792% و 1.367% بوده است. تفاصيل المقالة -
حرية الوصول المقاله
15 - کنترل بهینه پویایی مشتری از روش یادگیری ماشین با هسته چندجملهای
سید حمید عمادی ابوالفضل صادقیان مژده ربانی حسن دهقان دهنویدر این پژوهش، یک مدل از کنترل بهینه برای پویایی مشتریان براساس سیاستهای بازاریابی به عنوان یک سیستم غیر خودکار از معادلات دیفرانسیل مورد بررسی قرار میگیرد. هدف اصلی مدل پیگیری و تحلیل رفتار تغییرات همزمان مشتریان منظم، ارجاعی و بالقوه شرکت از زمان شروع تا به اکنون ا أکثردر این پژوهش، یک مدل از کنترل بهینه برای پویایی مشتریان براساس سیاستهای بازاریابی به عنوان یک سیستم غیر خودکار از معادلات دیفرانسیل مورد بررسی قرار میگیرد. هدف اصلی مدل پیگیری و تحلیل رفتار تغییرات همزمان مشتریان منظم، ارجاعی و بالقوه شرکت از زمان شروع تا به اکنون است. پیادهسازی یک سیاست بازاریابی موثر برای بهینهسازی این تغییرات و افزایش تعداد مشتریان از اهمیت ویژهای برخوردار است. در راستای این هدف، یک الگوریتم جدید یادگیری ماشین نظارتی را برای شبیهسازی عددی مسئله ارائه شده است. الگوریتم پیشنهادی از هستههای چندجملهای استفاده میکند. هستههای چندجملهای این امکان را فراهم میآورند که تابعی پیچیده از دادهها را به گونهای شبیهسازی کنند که به درک بهتر پویایی مشتریان کمک کند. رگرسیون بردار پشتیبان کمترین مربعات، یک روش بهینهسازی ساده برای استراتژیهای بازاریابی ارائه میدهند که با این رویکرد، میتوان استراتژیهای بازاریابی را بدون پرداختن به جزئیات مربوط به هر مشتری بهینه کرد و به جای آن تمرکز را بر اثر کلی این استراتژیها بر روی مجموعه مشتریان گذاشت. این تحقیق نشان میدهد که چگونه تکنیکهای یادگیری ماشین میتوانند در حل مسائل پیچیده مدیریت و بازاریابی کمککننده باشند. با گذر زمان، تعداد مشتریان منظم افزایش مییابد و افراد مشتریان بالقوه کاهش مییابند. اما، تعداد مشتریان ارجاعی نشان دهنده یک رشد سریع در ابتدای دوره زمانی و وجود یک الگوی افزایشی نوسانی در ادامه زمان است. تفاصيل المقالة -
حرية الوصول المقاله
16 - Evaluation and Prediction of W/C Ratio vs. Compressive Concrete Strength Using A.I and M.L Based on Random Forest Algorithm Approach
R. JamalpourConcrete, an artificial stone composed of cement, aggregate, water, and additives, is extensively utilized in contemporary civil projects. A pivotal characteristic of concrete is its capacity to efficiently serve various purposes and structural requirements. Cement, wat أکثرConcrete, an artificial stone composed of cement, aggregate, water, and additives, is extensively utilized in contemporary civil projects. A pivotal characteristic of concrete is its capacity to efficiently serve various purposes and structural requirements. Cement, water, aggregate, and additives are pivotal parameters wherein even minor alterations can significantly impact concrete strength. Among these parameters, the Water/Cement (W/C) ratio holds particular significance due to its inverse correlation with strength. Traditionally, predicting concrete strength solely based on the water-to-cement ratio has been challenging. However, with advancements in AI and machine learning techniques coupled with ample data availability, accurate strength prediction is achievable. This paper presents an analysis of a diverse dataset comprising various concrete tests utilizing machine learning methodologies, followed by a comparative examination of the outcomes. Furthermore, this study scrutinizes a renowned dataset encompassing 1030 experiments, featuring diverse combinations of cement, water, aggregate, etc., employing artificial intelligence and machine learning techniques. Model accuracy and result fidelity are evaluated through rigorous sampling methodologies. Initially, the dataset is subjected to analysis utilizing the linear regression algorithm, followed by validation employing the random forest algorithm. The random forest algorithm is employed to predict the water-to-cement ratio and corresponding compressive strength for concrete with a density of 300 kg/m3. Notably, the obtained results exhibit a high level of concordance with experimental and laboratory findings from prior studies. Hence, the efficacy of the random forest algorithm in concrete strength prediction is established, offering promising prospects for future applications in this domain. تفاصيل المقالة