-
دسترسی آزاد مقاله
1 - پیش بینی قیمت سهام با استفاده از روش داده کاوی
مجتبی حاجی غلامیاین مقاله به بررسی روشهای داده کاوی برای پیشبینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیشبینی روند با استفاده از داده کاوی میپردازد. این مقاله همچنین به بررسی تأثیر استفاده از روشهای داده کاوی در بازار سهام و کارایی آن در این زمینه میپردازد. در این ت چکیده کاملاین مقاله به بررسی روشهای داده کاوی برای پیشبینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیشبینی روند با استفاده از داده کاوی میپردازد. این مقاله همچنین به بررسی تأثیر استفاده از روشهای داده کاوی در بازار سهام و کارایی آن در این زمینه میپردازد. در این تحقیق یک رویکرد یادگیری ماشینی معرفی میشود که اطلاعات را با استفاده از داده های موجودی عمومی میسازد و از آن اطلاعات برای پیشبینی دقیق استفاده میکند. همچنین به بررسی گونههای متنوعی از روشهای داده کاوی میپردازد که در حوزه تجزیه و تحلیل بازارهای مالی کاربرد دارند و به طور ویژه تمرکز خود را بر پیشبینی روندهای بازار سهام معطوف میدارد. مطالعه ما نشان میدهد که از آنجایی که بازارهای مالی پویا و متغیر هستند و همواره تحت تأثیر عوامل اقتصادی، سیاسی و اجتماعی قرار دارند، استفاده از روشهای یادگیری ماشینی و داده کاوی میتواند در پیشبینی دقیقتر حرکات قیمتی سهام مؤثر واقع شود. با توجه به دادههای گسترده و پیچیده موجود در بازارهای مالی، روشهای داده کاوی میتوانند پتانسیل فراوانی در کشف الگوهای پنهان و تعیین ارتباط میان متغیرهای مختلف داشته باشند. در این راستا، الگوریتمهای مختلف یادگیری ماشینی مانند شبکههای عصبی مصنوعی، ماشینهای بردار پشتیبان و جنگلهای تصادفی به عنوان مثال مورد استفاده قرار گرفته و در کنار آنالیزهای آماری، به بهبود قابلیتهای تحلیلگران و سرمایهگذاران در تصمیمگیریهای اقتصادی کمک میکنند. استفاده از دادههای بزرگ و تحلیلهای پیچیده همچنین به توسعه استراتژیهای معاملاتی هوشمندانه که میتوانند به بهینهسازی بازگشت سرمایه کمک کنند، کمک نموده است. برای نمونه، تحلیلگران میتوانند با ادغام دادههای احساسی حاصل از شبکههای اجتماعی در مدلهای پیشبینی خود، دقت تخمینهای خود را ارتقا بدهند. این مطالعه تأکید دارد که توسعه پایدار در بازارهای مالی نیازمند تحلیلی دقیقتری از دادهها است که در نهایت منجر به تصمیمگیریهای مبتنی بر داده و فرآیندهای معاملاتی قوی تر میشود. پرونده مقاله -
دسترسی آزاد مقاله
2 - ارائه مدلی برای خلق ارزش سازمانی با استفاده از تجزیهوتحلیل کلانداده
علی میرعرب سیده لیلی میرطاهری سید امیر اصغریخلق ارزش یک عامل اصلی در پایداری و تعالی سازمانها است که علاوه بر حداکثر سازی سود، حفظ مشتری، دستیابی به اهداف کسبوکار و ایجاد درآمد را به دنبال دارد. ایجاد ارزش یک فرآیند پیچیده است، بهخصوص هنگامیکه شامل عوامل بیرونی و درونی سازمان میشود. زمانی که این فرآیند بر رو چکیده کاملخلق ارزش یک عامل اصلی در پایداری و تعالی سازمانها است که علاوه بر حداکثر سازی سود، حفظ مشتری، دستیابی به اهداف کسبوکار و ایجاد درآمد را به دنبال دارد. ایجاد ارزش یک فرآیند پیچیده است، بهخصوص هنگامیکه شامل عوامل بیرونی و درونی سازمان میشود. زمانی که این فرآیند بر روی سناریوهای کلانداده اعمال میشود، خلق ارزش باید در یک مقیاس پیچیدگی وسیعتری درک و شناخته شود. سؤالی که در اینجا مطرح میشود این است که سازمانها از این حجم عظیم داده چگونه میتوانند استفاده کنند و برای خود ارزش ایجاد کنند؟ پژوهش حاضر با هدف ارائه مدلی برای خلق ارزش سازمانی با تجزیهوتحلیل کلانداده طراحی و ارائه شده است. برای این منظور، با بررسی پیشینه تحقیق و مصاحبه با افراد متخصص و خبره، مدل خلق ارزش برای سازمان با تجزیهوتحلیل کلانداده طراحی و بر اساس آن، پنج فرضیه تعریف و برای آزمون آنها پرسشنامهای طراحی و در اختیار جامعه آماری تحقیق (مدیران و کارشناسان فناوری اطلاعات (بهخصوص کارشناسان و مدیران تحلیل داده) قرار داده شد. با استفاده از مدلیابی معادلات ساختاری (مدلهای اندازهگیری و ساختاری) روابط بین متغیرهای مدل بررسی شدند. نتایج نشاندهنده آن است که برای خلق ارزش سازمانی از تجزیهوتحلیل کلانداده لازم است ابتدا زیرساختهای تجزیهوتحلیل کلانداده و قابلیتهای تجزیهوتحلیل کلانداده و سازمان بررسی شده و بر اساس آن راهبرد تجزیهوتحلیل کلانداده تدوین و در نهایت خلق ارزش سازمانی شکلدهی شود. پرونده مقاله -
دسترسی آزاد مقاله
3 - Implementation of Random Forest Algorithm in Order to Use Big Data to Improve Real-Time Traffic Monitoring and Safety
Negin Fatholahzade Gholamreza Akbarizadeh Morteza RomooziNowadays the active traffic management is enabled for better performance due to the nature of the real-time large data in transportation system. With the advancement of large data, monitoring and improving the traffic safety transformed into necessity in the form of act چکیده کاملNowadays the active traffic management is enabled for better performance due to the nature of the real-time large data in transportation system. With the advancement of large data, monitoring and improving the traffic safety transformed into necessity in the form of actively and appropriately. Per-formance efficiency and traffic safety are considered as an im-portant element in measuring the performance of the system. Although the productivity can be evaluated in terms of traffic congestion, safety can be obtained through analysis of incidents. Exposure effects have been done to identify the Factors and solutions of traffic congestion and accidents.In this study, the goal is reducing traffic congestion and im-proving the safety with reduced risk of accident in freeways to improve the utilization of the system. Suggested method Man-ages and controls traffic with use of prediction the accidents and congestion traffic in freeways. In fact, the design of the real-time monitoring system accomplished using Big Data on the traffic flow and classified using the algorithm of random-ized forest and analysis of Big Data Defined needs. Output category is extracted with attention to the specified characteristics that is considered necessary and then by Alarms and signboards are announced which are located in different parts of the freeways and roads. All of these processes are evaluated by the Colored Petri Nets using the Cpn Tools tool. پرونده مقاله -
دسترسی آزاد مقاله
4 - Survey on Perception of People Regarding Utilization of Computer Science & Information Technology in Manipulation of Big Data, Disease Detection & Drug Discovery
Md Sarowar Azim Khan Maruf Shakil Mohammad Ullahthis research explores the manipulation of biomedical big data and diseases detection using automated computing mechanisms. As efficient and cost effective way to discover disease and drug is important for a society so computer aided automated system is a must. This pap چکیده کاملthis research explores the manipulation of biomedical big data and diseases detection using automated computing mechanisms. As efficient and cost effective way to discover disease and drug is important for a society so computer aided automated system is a must. This paper aims to understand the importance of computer aided automated system among the people. The analysis result from collected data contributes to finding an effective result that people have enough understanding and much better knowledge about big data and computer aided automated system. moreover, perspective and trustworthiness of people regarding recent advancement of computer aided technologies in biomedical science have been demonstrated in this research. however, appearance of big data in the field of medical science and manipulation of those data have been concentrated on this research. Finally suggestions have been developed for further research related to computer technology in manipulation of big data, disease detection and drug discovery. پرونده مقاله -
دسترسی آزاد مقاله
5 - A Fuzzy TOPSIS Approach for Big Data Analytics Platform Selection
Salah Uddin Mizanur Rahman Samaun Hasan S.M. Irfan Rana Shaikh Muhammad AllayearBig data sizes are constantly increasing. Big data analytics is where advanced analytic techniques are applied on big data sets. Analytics based on large data samples reveals and leverages business change. The popularity of big data analytics platforms, which are often چکیده کاملBig data sizes are constantly increasing. Big data analytics is where advanced analytic techniques are applied on big data sets. Analytics based on large data samples reveals and leverages business change. The popularity of big data analytics platforms, which are often available as open-source, has not remained unnoticed by big companies. Google uses MapReduce for PageRank and inverted indexes. Facebook uses Apache Hadoop to analyse their data and created Hive. eBay uses Apache Hadoop for search optimization and Twitter uses Apache Hadoop for log file analysis and other generated data[ 1]. Different Big data analytics platform providers are providing different types of facilities. To select those analytics platform for our business and public sector institutions purpose we follow multiple criteria. Multiple criteria decision making (MCDM) is mostly used in ranking one or more alternatives from finite set of available alternatives with respect to multiple criteria. Among many multi-criteria techniques, MAXMIN, MAXMAX, SAW, AHP, TOPSIS, SMART, ELECTRE are the most frequently used methods. The TOPSIS (Technique for Order Preference by Similarity to the Ideal Solution) methods are simplicity, rationality, comprehensibility, good computational efficiency and ability to measure the relative performance for each alternative in a simple mathematical form. پرونده مقاله -
دسترسی آزاد مقاله
6 - 2016 Olympic Games on Twitter: Sentiment Analysis of Sports Fans Tweets using Big Data Framework
Azam Seilsepour Reza Ravanmehr Hamid Reza SimaBig data analytics is one of the most important subjects in computer science. Today, due to the increasing expansion of Web technology, a large amount of data is available to researchers. Extracting information from these data is one of the requirements for many organiz چکیده کاملBig data analytics is one of the most important subjects in computer science. Today, due to the increasing expansion of Web technology, a large amount of data is available to researchers. Extracting information from these data is one of the requirements for many organizations and business centers. In recent years, the massive amount of Twitter's social networking data has become a platform for data mining research to discover facts, trends, events, and even predictions of some incidents. In this paper, a new framework for clustering and extraction of information is presented to analyze the sentiments from the big data. The proposed method is based on the keywords and the polarity determination which employs seven emotional signal groups. The dataset used is 2077610 tweets in both English and Persian. We utilize the Hive tool in the Hadoop environment to cluster the data, and the Wordnet and SentiWordnet 3.0 tools to analyze the sentiments of fans of Iranian athletes. The results of the 2016 Olympic and Paralympic events in a one-month period show a high degree of precision and recall of this approach compared to other keyword-based methods for sentiment analysis. Moreover, utilizing the big data processing tools such as Hive and Pig shows that these tools have a shorter response time than the traditional data processing methods for pre-processing, classifications and sentiment analysis of collected tweets. پرونده مقاله -
دسترسی آزاد مقاله
7 - A Review of Anonymity Algorithms in Big Data
Elham shamsinejad Mir Mohsen Pedram Amir Masoud Rahamni Touraj BaniRostamBy increasing access to high amounts of data through internet-based technologies such as social networks and mobile phones and electronic devices, many companies have considered the issues of accessing large, random and fast data along with maintaining data confidential چکیده کاملBy increasing access to high amounts of data through internet-based technologies such as social networks and mobile phones and electronic devices, many companies have considered the issues of accessing large, random and fast data along with maintaining data confidentiality. Therefore, confidentiality concerns and protection of specific data disclosure are one of the most challenging topics. In this paper, a variety of data anonymity methods, anonymity operators, the attacks that can endanger data anonymity and lead to the disclosure of sensitive data in the big data have been investigated. Also, different aspects of big data such as data sources, content format, data preparation, data processing and common data repositories will be discussed. Privacy attacks and contrastive techniques like k anonymity, neighborhood t and L diversity have been investigated and two main challenges to use k anonymity on big data will be identified, as well. Two main challenges to use k anonymity on big data will be identified. The first challenge of confidential attributes can also be as pseudo-identifier attributes, which increases the number of pseudo-identifier elements, and it may lead to the loss of great information to achieve k anonymity. The second challenge in big data is the unlimited number of data controllers are likely to lead to the disclosure of sensitive data through the independent publication of k anonymity. Then different anonymity algorithms will be presented and finally, the different parameters of time order and the consumable space of big data anonymity algorithms will be compared. پرونده مقاله -
دسترسی آزاد مقاله
8 - An Assessment of Big Data Analytics on Auditing and Accounting: A Bibliometric Analysis
Maryam Nouraei Forouzan Mohamadi YarijaniAbstractThis article examines the emerging trend of big data studies within the realms of accounting, auditing, and finance and explores the theoretical underpinnings of big data in the area of finance, focusing on the research process and data analysis methods employed چکیده کاملAbstractThis article examines the emerging trend of big data studies within the realms of accounting, auditing, and finance and explores the theoretical underpinnings of big data in the area of finance, focusing on the research process and data analysis methods employed. Utilizing the Scopus scientific database and VosViewer bibliography software, an extensive assessment of available literature was conducted. Furthermore, the study presents a network examination of commonly recurring keywords in highly cited articles and showcases three influential publications. This study recommends that Iranian companies embrace these advancements for promoting research and development. Additionally, it advises utilizing notable keywords, highly cited authors, and leading countries in big data research within the financial sector. Through the study of citation patterns, it was revealed that Vasarhely emerged as a highly influential author within the domain of big data studies in accounting, auditing, and finance. The United States, China, and England emerged as the top contributors to the field, having published the highest number of articles. The research also delves into Iran's position in this context, highlighting potential areas for growth and development. پرونده مقاله -
دسترسی آزاد مقاله
9 - Financial Risk Management in the Supply Chain Using Business Intelligence and Big Data
Nemer Badwan Lamees Al-Zoubi Suhaib Al-KhazalehFinancial risk management and risk identification management have evolved into critical components of global supply networks. Machine learning, business intelligence, and big data technologies are used to detect system risks, manage financial risks, and help identify th چکیده کاملFinancial risk management and risk identification management have evolved into critical components of global supply networks. Machine learning, business intelligence, and big data technologies are used to detect system risks, manage financial risks, and help identify the cause of risks. The company may strive to improve the source of the risk. The methodology concentrates on three major supply chain danger areas: shipping, marketing, and distribution, with a licensed insurance model built, evaluated, and matched to current approaches before being adjusted based on the results. In this scenario, we're also using Business Intelligence (BI), which helps businesses make better data-driven decisions. As a result, reduce losses incurred. A framework of risk detection models based on machine learning, business intelligence and big data is provided to control financial risks in the supply chain. This study aims to identify risks, identify their sources and mitigate them. The proposed approach focuses on three distinct areas of supply chain risk: transportation, sales, and delivery. A risk disclosure model is used, tested, compared with existing methodologies, and then refined depending on the results for each area. Regardless of the supply chain data used, the proposed method is adaptable to any other type of supply chain. پرونده مقاله -
دسترسی آزاد مقاله
10 - ارائه الگویی در مدیریت ارتباط با مشتری (CRM) در فروشگاههای زنجیرهای تخفیفی با بکارگیری اینترنت اشیاء و بیگ دیتا
محمد رضا رستمی اسحاق قورچی بیگیموفقیت در ارتباط با مشتری به طور فزایندهای به مدیریت دانش بستگی دارد. استخراج دانش در مدیریت ارتباط با مشتری از آنجایی پررنگتر میشود که حجم بسیار انبوهی از داده درباره مشتریان، ویژگیهای آنان و رفتار آنها وجود داشته باشد. در چنین شرایطی استفاده از الگوریتمها و فنون چکیده کاملموفقیت در ارتباط با مشتری به طور فزایندهای به مدیریت دانش بستگی دارد. استخراج دانش در مدیریت ارتباط با مشتری از آنجایی پررنگتر میشود که حجم بسیار انبوهی از داده درباره مشتریان، ویژگیهای آنان و رفتار آنها وجود داشته باشد. در چنین شرایطی استفاده از الگوریتمها و فنون کارا برای تحلیل این دادهها امری ضروری میباشد. هدف این پژوهش، ارائه الگویی در مدیریت ارتباط با مشتری (CRM) در فروشگاههای زنجیرهای تخفیفی از طریق بکارگیری اینترنت اشیاء و بیگ دیتا، میباشد. روش تجزیه و تحلیل اطلاعات، روش مدلسازی ساختاری تفسیری میباشد. در این پژوهش به منظور تکمیل پرسشنامهها، از نظرات 20 فرد خبره در این زمینه استفاده شده است. مطابق مدل ساختاری تفسیری استخراج شده سطح اول سلسله مراتب متعلق به "موفقیت مدیریت ارتباط با مشتری (3)"، سطح دوم سلسله مراتب متعلق به "تبلیغات بازاریابی سفارشی (1) و بهبود حفظ مشتری (2)" و سطح سوم سلسله مراتب متعلق به "استراتژی قیمتگذاری (3)" میباشد، این بدان معنا است که این متغیرها از باقی متغیرها اثر میپذیرد. اثرگذارترین متغیر، "تجزیه و تحلیل در زمان واقعی (4)" میباشد. نتایج به دست آمده میتواند الگوی مناسبی برای فروشگاههای زنجیرهای کشور جهت مدیریت بهتر ارتباط با مشتریان و کسب مزیت رقابتی باشد. پرونده مقاله -
دسترسی آزاد مقاله
11 - آیندهپژوهی حسابرسی از منظر فناوری اطلاعات، تغییرات مقرراتی، ساختاری و رویهای
زهرا عبدلی اباتری احسان کمالی امین رستمی آرزو آقایی چادگانیتحولات تکنولوژیک، حرفه حسابرسی را با چالش منسوخ شدن روشهای قدیمی و سنتی مواجه کرده است. روشهای سنتی حسابرسی دیگر پاسخگوی حسابرسی سازمانهای بزرگ و پیچیده امروزی نیستند. از اینرو بکارگیری فناوری اطلاعات وابزارهای نوین اطلاعاتی در ارائه اطلاعات به هنگام و دقیق در خصوص چکیده کاملتحولات تکنولوژیک، حرفه حسابرسی را با چالش منسوخ شدن روشهای قدیمی و سنتی مواجه کرده است. روشهای سنتی حسابرسی دیگر پاسخگوی حسابرسی سازمانهای بزرگ و پیچیده امروزی نیستند. از اینرو بکارگیری فناوری اطلاعات وابزارهای نوین اطلاعاتی در ارائه اطلاعات به هنگام و دقیق در خصوص جریان های مالی موسسات حسابرسی امری حیاتی به نظر میرسد. صاحب نظران بر این عقیده هستند که در دنیای امروز، برنامهریزی و آیندهنگری ضرورتی اجتناب ناپذیر است و لازمه آن نیز آیندهپژوهی است. در این پژوهش به آیندهپژوهی تغییرات شیوه های حسابرسی که انتظار میرود طی ده تا بیست سال آینده در ایران انجام شود پرداخته شده است. این پژوهش بر مبنای هدف از نوع کاربردی و بر مبنای ابزار گردآوری دادهها از نوع توصیفی-پیمایشی و اکتشافی که به صورت پژوهش آمیخته (کمی-کیفی) انجام شده، می باشد. جامعه آماری پژوهش شامل اساتید دانشگاه و متخصصان حرفه حسابرسی میباشد. نظرات مشارکت کنندگان از طریق پرسشنامه باز، مصاحبه و دلفی در نیمه اول سال 1401 جمع آوری گردید. نتایج تحلیل دلفی در دو مرحله حاکی از پذیرش 24 پیشران در حوزه تغییر مقررات، ساختار و رویههای حسابرسی با توجه به پیشرفت سریع فناوری طی سال‎های آینده میباشد. تفسیر نتایج نشان میدهد که حسابرسی نیازمند تغییر و بروزرسانی در حوزه فناوری اطلاعات، قوانین و استانداردها، ساختار و رویههای حسابرسی میباشد. همچنین، ظهور و پذیرش مدلهای جدید کسب و کار، حسابرس را ملزم به آشنایی با این مدلها خواهد کرد و علیرغم دشواریهایی که فناوریهای جدید ایجاد میکنند، به بهبود عملکرد حسابرسان کمک خواهد کرد و انتظار نمیرود اثرات مخربی بر حرفه حسابرسی داشته باشد. پرونده مقاله -
دسترسی آزاد مقاله
12 - تاثیر دیجیتالی شدن بر حسابرسی بخش عمومی (مطالعه در حوزه مدیریت شهری)
زهرا عبدلی اباتری احسان کمالی امین رستمی آرزو آقایی چادگانیمقدمه و هدف پژوهش: با توجه به تحولات روزافزون فناوری، سیستم مدیریت شهری نیز با استفاده از فناوریهای دیجیتال در حال تغییر و بهبود است. بر همین اساس حسابرسان نیز باید تواناییها و مهارتهای لازم برای ارزیابی سیستمهای مدیریتی دیجیتالی را داشته باشند. برای مثال، فناوریها چکیده کاملمقدمه و هدف پژوهش: با توجه به تحولات روزافزون فناوری، سیستم مدیریت شهری نیز با استفاده از فناوریهای دیجیتال در حال تغییر و بهبود است. بر همین اساس حسابرسان نیز باید تواناییها و مهارتهای لازم برای ارزیابی سیستمهای مدیریتی دیجیتالی را داشته باشند. برای مثال، فناوریهایی مانند تحلیل دادهها، هوش مصنوعی و یادگیری ماشینی به حسابرسان امکان میدهند تا بتوانند بررسی دقیقی از اطلاعات و عملکرد مالی بخش عمومی ارائه دهند. در این پژوهش به بررسی تغییرات شیوه های حسابرسی بخش عمومی که انتظار میرود در سالهای آینده در ایران انجام شود پرداخته شده است. روش پژوهش: این پژوهش بر مبنای هدف از نوع کاربردی و بر مبنای ابزار گردآوری دادهها از نوع توصیفی-پیمایشی و اکتشافی که به صورت پژوهش آمیخته (کمی-کیفی) انجام شده، می باشد. یافته ها: نتایج تحلیل دلفی در دو مرحله حاکی از پذیرش 25 پیشران در حوزه تغییر مقررات، ساختار و رویههای حسابرسی بخش عمومی با توجه به پیشرفت سریع فناوری طی سال‎های آینده میباشد. نتیجه گیری: تفسیر نتایج نشان میدهد که حسابرسی بخش عمومی نیازمند تغییر و بروزرسانی در حوزه فناوری اطلاعات، قوانین و استانداردها، ساختار و رویههای حسابرسی میباشد. از آنجایی که رویههای خودکار جایگزین روشهای دستی میشوند، رسیدگیها مستمر و دقیقتر انجام میشود. همچنین به نیروی انسانی کمتری نیاز خواهد بود که باعث خواهد شد هزینهها به شدت کاهش یابد. پرونده مقاله -
دسترسی آزاد مقاله
13 - نقش کلان داده های شهری در شهرهای هوشمند
خیراله همتی روزبه زمانیانسیستم های شهری شامل بسیاری از اجزای نزدیک به هم هستند که به دلیل حسگرها ی جدید، جمع آوری داده ها و روش های تحلیل مکانی-زمانی قابل اندازه گیر ی تر از قبل گشته اند. تبدیل این داده ها به دانش برای تسهیل تلاش های برنامه ریزی در پرداختن به چالش های کنونی سیستم های پیچیده شهر چکیده کاملسیستم های شهری شامل بسیاری از اجزای نزدیک به هم هستند که به دلیل حسگرها ی جدید، جمع آوری داده ها و روش های تحلیل مکانی-زمانی قابل اندازه گیر ی تر از قبل گشته اند. تبدیل این داده ها به دانش برای تسهیل تلاش های برنامه ریزی در پرداختن به چالش های کنونی سیستم های پیچیده شهری، نیازمند روش های تحلیل بین رشته ای پیشرفته، مانند انفورماتیک شهری یا علوم داده شهری است. با این حال، با اعمال یک رویکرد صرفا مبتنی بر داده، گمشدن در "جنگل" داده ها، و از دست دادن "درخت" شهر های موفق و قابل زندگی که هدف نهایی برنامه ریزی شهر ی هستند، بسیار آسان است. این مقاله بیان می کند که چگونه داده های جغرافیایی وتحلیل شهری، با استفاده از روش های ترکیبی، می تواند به درک بهتر پویایی شهری و رفتار انسانی کمک کند، و چگونه می تواند تلاش های برنامه ریزی برای بهبود زیست پذیری را ارتقاء دهد. بر اساس بررسی جدیدترین تحقیقات، این مقاله یک گام فراتر می رود و همچنین به پتانسیل و همچنین محدودیت های منابع داده جدید درتجزیه وتحلیل شهری می پردازد تا دید کلی بهتری از کل "جنگل" این منابع داده جدید داشته باشد. کار حاضرمروری کیفی بر اساس پژوهش های صورت گرفته با روش های تجزیه وتحلیل حول قابلیت اطمینان استفاده از داده های بزرگ از پلتفرم ها یا حس گرهای رسانه ها ی اجتماعی، و چگونگی استخراج اطلاعات از مقادیر انبوه داده از طریق روش های تحلیل جدید، مانند یادگیری ماشین، برای تصمیم گیری آگاهانه تر با هدف بهبود زیست پذیری شهری است. هدف این مقاله مطالعه ی مروری پیرامون برخی از هم افزایی ها و چالش های رویکرد بین رشته ای (تجزیه وتحلیل شهری مبتنی بر GISدر بهبود زیست پذیری شهرها، با بررسی یافته های کلیدی وسوالات به دست آمده از ادبیات پیشرفته) است. پرونده مقاله -
دسترسی آزاد مقاله
14 - Multi-Objective Model for Fair Pricing of Electricity Using the Parameters from the Iran Electricity Market Big Data Analysis
M. Salami F. Movahedi Sobhani M. S. GhazizadehAssessment of the electricity market shows that, electricity market data can be considered "big data". this data has been analyzed by both conventional and modern data mining methods. The predicted variables of supply and demand are considered to be the input of a defin چکیده کاملAssessment of the electricity market shows that, electricity market data can be considered "big data". this data has been analyzed by both conventional and modern data mining methods. The predicted variables of supply and demand are considered to be the input of a defined multi-objective for predicting electricity price, which is the result of the defined model. This shows the advantage of applying the new algorithms for big data mining. پرونده مقاله -
دسترسی آزاد مقاله
15 - بررسی اثر میانجی بکارگیری کلانداده در رابطه میان حاکمیت هیئت مدیره و تأخیر در ارائه گزارش حسابرسی
آناهیتا زندیهدف: هدف پژوهش حاضر، بررسی نقش میانجی استفاده از کلانداده در رابطه میان حاکمیت هیئت مدیره و تأخیر در گزارش حسابرسی است. روش: تعداد 152 شرکت پذیرفته شده در بورس اوراق بهادار تهران در بازه زمانی 1395-1400 بهعنوان نمونه پژوهش انتخاب شدند. همچنین برای بررسی رابطه میان چکیده کاملهدف: هدف پژوهش حاضر، بررسی نقش میانجی استفاده از کلانداده در رابطه میان حاکمیت هیئت مدیره و تأخیر در گزارش حسابرسی است. روش: تعداد 152 شرکت پذیرفته شده در بورس اوراق بهادار تهران در بازه زمانی 1395-1400 بهعنوان نمونه پژوهش انتخاب شدند. همچنین برای بررسی رابطه میان حاکمیت هیئت مدیره، بکارگیری کلانداده، و تأخیر در گزارش حسابرسی، از حداقل مربعات معمولی، مدلسازی معادله ساختاری، استفاده شده است. یافتهها: نتایج نشان داد که میتوان از کلانداده به عنوان پیشبینیکننده تأخیر در ارائه گزارش حسابرسی در شرکتهای پذیرفته شده در بورس اوراق بهادار تهران استفاده کرد. همچنین هنگامی که از کلانداده به عنوان میانجی استفاده میشود، حاکمیت هیئت مدیره تأثیر معناداری روی تأخیر در گزارش حسابرسی دارد. نتیجهگیری: این پژوهش، سرمایهگذاران و ذینفعان را نسبت به اهمیت بکارگیری کلانداده و رویههای حاکمیت شرکتی در کاهش تأخیر در ارائه گزارش حسابرسی آگاه میسازد. همچنین میتواند در ایجاد الزامات گزارش حسابرسی و اِعمال قوانین جهت تضمین انتشار بهموقع گزارش حسابرسی، به قانونگذاران کمک نماید. همچنین تحقیق حاضر شواهد خاصی از نقش بکارگیری کلانداده در میانجیگری رابطه میان حاکمیت هیئت مدیره و تأخیر در ارائه گزارش حسابرسی را فراهم میکند. پرونده مقاله -
دسترسی آزاد مقاله
16 - مطالعه تطبیقی نرم افزارهای منبع باز استقرار و مدیریت رایانش ابری با استفاده از مدل کیفیت از دیدگاه پردازش کلان داده
مهدی جعفری امیر کلباسیروز به روز حجم دادههای تولید شده توسط انسانها در حال افزایش است. ذخیرهسازی و پردازش دادهها، یکی از مباحث بسیار مهم در مواجهه با کلان دادهها است که نیازمند منابع ذخیرهسازی و پردازشی گسترده میباشد. رایانش ابری به دلیل ویژگیها و معماری خود، به عنوان یک زیرساخت امید چکیده کاملروز به روز حجم دادههای تولید شده توسط انسانها در حال افزایش است. ذخیرهسازی و پردازش دادهها، یکی از مباحث بسیار مهم در مواجهه با کلان دادهها است که نیازمند منابع ذخیرهسازی و پردازشی گسترده میباشد. رایانش ابری به دلیل ویژگیها و معماری خود، به عنوان یک زیرساخت امیدبخش برای این مساله مطرح است. برای ذخیرهسازی و پردازش دادهها در بستر ابری، افراد و سازمانها ممکن است برای کنترل و دسترسی بیشتر روی منابع و دادهها تمایل بیشتری به استقرار و مدیریت ابرهای خصوصی داشته باشند. برای استقرار و مدیریت ابرهای خصوصی نرمافزارهای متعدد منبعباز ارائه شده است که گزینش بین آنها به عنوان یک چالش به خصوص برای کسانی که تازه در این راه قدم بر میدارند مطرح است. هدف ما در این مقاله ارائه یک مدل کیفیت برای مدیریت زیرساخت ابری و مقایسه نرمافزارهای محبوب Eucalyptus، OpenStack و CloudStack بر اساس مدل کیفیت ارائه شده با تمرکز بر کلان داده به منظور نمایش قابلیتها، ضعفها و برتریهای هر کدام در جهت کمک به گزینش بین آنها می باشد. پرونده مقاله -
دسترسی آزاد مقاله
17 - ارائه یک روش جدید برای تشخیص نفوذ و رفتارهای مخرب در داده های حجیم
هما موحد نژاد محسن پورشعبان احسان یزدانی چمزینی الهه همتی اشنی مهدی شریفیامروزه حفظ امنیت اطلاعات و تشخیص نفوذ به¬منظور مقابله با رفتارهای مخرب در داده¬های حجیم از اهمیت بسزایی برخوردار است. در این مقاله یک روش ترکیبی نرم¬افزاری سخت¬افزاری برای تشخیص داده¬های مخرب ارائه شده است. در این روش سه فاکتور پیشرفت زمانی، تاریخچه کاربران و مقیاس¬پذیر چکیده کاملامروزه حفظ امنیت اطلاعات و تشخیص نفوذ به¬منظور مقابله با رفتارهای مخرب در داده¬های حجیم از اهمیت بسزایی برخوردار است. در این مقاله یک روش ترکیبی نرم¬افزاری سخت¬افزاری برای تشخیص داده¬های مخرب ارائه شده است. در این روش سه فاکتور پیشرفت زمانی، تاریخچه کاربران و مقیاس¬پذیری لحاظ شده است. در روش پیشنهادی از تکنیک¬های ذخیره¬سازی و استخراج ویژگی جهت افزایش سرعت و کاهش حجم محاسبات استفاده می¬شود. همچنین برای طبقه¬بندی از الگوریتم ماشین بردار پشتیبان تغییر یافته و برای عملیات استخراج ویژگیها از الگوریتم غذایابی باکتری بصورت موازیسازی شده، بهره برده شده است. نتایج نشان میدهد که الگوریتم پیشنهادی نسبت به سایر روش¬های مشابه، از نظر نرخ تشخیص 21%، نرخ مثبت کاذب 62%، دقت 15% و زمان اجرا 70% بهتر عمل می¬کند. کاهش زمان اجرا بیانگر آن است که برای اجرای الگوریتم به انرژی مصرفی کمتری نیاز است که در نتیجه میتواند علاوه بر صرفهجویی انرژی؛ جهت بکارگیری در سیستمهای انرژی سبز نیز سودمند باشد. پرونده مقاله -
دسترسی آزاد مقاله
18 - Computing the Efficiency of Bank Branches with Financial Indexes, an Application of Data Envelopment Analysis (DEA) and Big Data
Fahimeh Jabbari-Moghadam Farhad Hosseinzadeh Lotfi Mohsen Rostamy-Malkhalifeh Masoud Sanei Bijan Rahmani-ParchkolaeiIn traditional Data Envelopment Analysis (DEA) techniques, in order to calculate the efficiency or performance score, for each decision-making unit (DMU), specific and individual DEA models are designed and resolved. When the number of DMUs are immense, due to an increa چکیده کاملIn traditional Data Envelopment Analysis (DEA) techniques, in order to calculate the efficiency or performance score, for each decision-making unit (DMU), specific and individual DEA models are designed and resolved. When the number of DMUs are immense, due to an increase in complications, the skewed or outdated, calculating methods to compute efficiency, ranking and …. may not prove to be economical. The key objective of the proposed algorithm is to segregate the efficient units from that of the other units. In order to gain access to this objective, effectual indexes were created; and taken to assist, in regards the DEA concepts and the type of business (under study), to survey the indexes, which were relatively operative. Subsequently, with the help of one of the clustering techniques and the ‘concept of dominance’, the efficient units were absolved from the inefficient ones and a DEA model was developed from an aggregate of the efficient units. By eliminating the inefficient units, the number of units which played a role in the construction of a DEA model, diminished. As a result, the speed of the computational process of the scores related to the efficient units increased. The algorithm designed to measure the various branches of one of the mercantile banks of Iran with financial indexes was implemented; resulting in the fact that, the algorithm has the capacity of gaining expansion towards big data. پرونده مقاله -
دسترسی آزاد مقاله
19 - Designing a Model for Implementing the Fourth Generation Industry to Achieve Sustainable Development Goals in the Automotive Industry (Case Study: Iran KhodroCompany(
Amir Ardehi Habibollah Javanmard Nazanin PilevariThe automotive industry, as a job-creating and infrastructure industry, needs an executive model for success in the domestic and international markets. In this regard, the present study has been conducted with the aim of designing a model for implementing the fourth gen چکیده کاملThe automotive industry, as a job-creating and infrastructure industry, needs an executive model for success in the domestic and international markets. In this regard, the present study has been conducted with the aim of designing a model for implementing the fourth generation industry to achieve sustainable development goals in Iran Khodro Company. The study is an applied-developmental study in terms of purpose and cross-sectional survey research. Also, in this study, a mixed research method (qualitative-quantitative) was used. Content analysis method and MaxQDA software were used for data analysis in the qualitative section. Then, using Interpretive Structural Modeling (ISM) with MICMAC software, the initial pattern was drawn. In the quantitative section, one-sample t-test and SPSS software were used to measure the current situation. The research findings showed that the Collection and Analysis of Big Data affects the Simulation and Automatic Robots. These factors affect horizontally and vertically integration systems and thus lead to the Internet of Industrial Things, Augmented Reality and Cyber Security. Further, through the Cloud Computing system, Additive Manufacturing is affected and this Additive Manufacturing leads to Sustainable Development. پرونده مقاله -
دسترسی آزاد مقاله
20 - Identification of influencing factors on implementation of smart city plans based on approach of technical and social system
Ali Safarzadeh Ghasemali Bazaei Mehdi FaghihiThe current research seeks to identify the influencing factors on implementation of smart city plans based on approach of technical and social systems. For this goal, the library study is done and then based on that a research plan is written that include using expert o چکیده کاملThe current research seeks to identify the influencing factors on implementation of smart city plans based on approach of technical and social systems. For this goal, the library study is done and then based on that a research plan is written that include using expert opinions and data mining technique, feature selection ,clustering and also Delphi technique to identify and screen factors and then using clustering, the final factors are leveled. Here the aim is not ranking but is leveling. Meanwhile because of high numbers of factors, screening them in both steps using Delphi and feature selection is conducted. Delphi is one of the classic tests in qualitative approaches and feature selection include data mining techniques. Finally leveling factors include technical and social factors and the most influencing ones are determined. technical factors including digital infrastructure, ICT base transportation, ICT based logistic, building alarm systems, energy consumption adjustment, ICT based process are placed in level one. Social factors including digital and smart innovation, knowledge sharing, smart education, participation in sustainable development, access to educational plans, waste recycling, pollution control, productivity and flexibility of labor market are placed in level one. پرونده مقاله -
دسترسی آزاد مقاله
21 - کلان داده و تاثیر آن بر دستیابی صنعت بانکداری ایران به مزیت رقابتی
foad Kouhzadi hossin gharebiglou hossin boudaghi khaje nouber yaghoub alavi matinچکیدهافزایش حجم و پیچیدگی داده های دیجیتال و نقش آن بعنوان ابزاری برای پشتیبانی از کسب مزیت رقابتی برای بانک ها، نیاز به استفاده از ابزار و تکنیک های نوین در کسب ارزش داده، تحلیل و پردازش آن را افزایش داده است و در این شرایط دسترسی به جریان داده در مبادلات نوین مالی دشو چکیده کاملچکیدهافزایش حجم و پیچیدگی داده های دیجیتال و نقش آن بعنوان ابزاری برای پشتیبانی از کسب مزیت رقابتی برای بانک ها، نیاز به استفاده از ابزار و تکنیک های نوین در کسب ارزش داده، تحلیل و پردازش آن را افزایش داده است و در این شرایط دسترسی به جریان داده در مبادلات نوین مالی دشوارتر شده است و این امر ضرورت استفاده مدیران بانکی از راهبرد کلان داده در جهت حل چالشهای مالی و بهرهبرداری از فرصتهای پیش رو برای دستیابی به مزیت رقابتی پایدار دوچندان ساخته است. هدف پژوهش حاضر شناسایی اثرات راهبرد کلان داده بر دستیابی به مزیت رقابتی در صنعت بانکداری ایران است و از این رو در پژوهش حاضر تلاش شده تا مدل کلان داده با مدنظر قرار دادن مسائل اخلاقی و حریم شخصی مشتریان و تأثیرات آنها در دستیابی به مزیت رقابتی در صنعت بانکداری ارائه گردد. فرضیههای مدل مذکور با استفاده از نظرات نمونه پژوهش، شامل مدیران عامل، مدیران و کارکنان فناوری اطلاعات و ارتباطات، مدیران و کارکنان بازاریابی 20 بانک از طریق پرسشنامه مورد ارزیابی قرارگرفته است و نتایج بدست آمده نشان از این دارد که بانک ها با بکارگیری راهبرد کلان داده به کسب مزیت رقابتی دست مییابند. بعلاوه، مسائل اخلاقی و حریم شخصی مشتریان بر رابطه راهبرد کلان داده با دستیابی به مزیت رقابتی تأثیر میگذارد. پرونده مقاله -
دسترسی آزاد مقاله
22 - ارزیابی و کشف تقلب در فرایند زنجیره تامین مبتن ی بر رویکرد تلفیق ی ANN-Big data
الناز علیخانی زنجانی فرید عسگری امیر نجفی بابک حاجی کریمیچکیدهدر ده ههای اخیر، رقابت جهت ارائه ارزش برتر به مشتریان، از رقابت میان بنگاهها به سمت رقابت میان زنجیرههای تامین سوقپیدا کرده است. طراحی مناسب زنجیره تامین با توجه به ابعاد اقتصادی، اجتماعی و زیستمحیطی در سطوح استراتژیک،تاکتیکی و عملیاتی ضامن بقا و توسعه پایدار بنگاه چکیده کاملچکیدهدر ده ههای اخیر، رقابت جهت ارائه ارزش برتر به مشتریان، از رقابت میان بنگاهها به سمت رقابت میان زنجیرههای تامین سوقپیدا کرده است. طراحی مناسب زنجیره تامین با توجه به ابعاد اقتصادی، اجتماعی و زیستمحیطی در سطوح استراتژیک،تاکتیکی و عملیاتی ضامن بقا و توسعه پایدار بنگاهههای فعال در هر بخش از زنجیره تامین است. یکی از مسائل مهم در زنجیرهتامین، وجود تقلب و مخاطرات مرتبط با آنها در سرتاسر زنجیره است. همچنین با توجه به حجم پژوه شهای علمی و تجربیصورت گرفته در سالهای اخیر، مساله کشف و ارزیابی تقلب با استفاده از روشهای محاسباتی به تنهایی یک موضوع بااهمیت برا ی پژوهش م یباشد . از مه مترین چالشهای کشف و ارزیابی تقلب میتوان به د ر دسترس نبود ن مجموعههای داد هایواقعی، وجود مجموعههای داد های نامتقارن، عظیم بودن اندازه مجموعههای داد های، رفتار پویای متقلب و پراکندگی رخدادهایتقلبآمیز اشاره نمود که نتیجه این دو عدم اطمینان و ابهام در تصمیمسازی است. لذا هدف این پژوهش، ارائه مدلی جهتکشف و ارزیابی تقلب در فرایند زنجیره تامین مبتنی بر رو یکرد تلفیقی ANN-Big data میباشد. این پژوهش از نظر هدف،یک پژوهش توسعهای و کاربردی است. نخست به دلیل ا یجاد ی ک مدل جامع، با در نظر گرفتن منابع مختلف اخذ تصمیم درخصوص قانون ی یا تقلبآمیز بودن تراکنشهای کارت الکترونیک و الزامات تح لیل بزرگ داده، سعی ب ه توسعه دانشی نظری د راین حوزه دارد، این پژوهش را م یتوان از لحا ظ ماهی ت ی ک پژوهش تحلیل ی ریاضی در نظر گرفت، بر همین اساس اینپژوهش از نظر رویکرد، ی ک پژوهش کمی است . فرآیند استاندارد میا ن صنعتی داد هکاوی ی ا به اختصار CRISP DM )چپمنو همکاران 2000 (، ب هعنوان روششناسی تحلیل مورد استفاده قرار کرفته است. از مدلهای خوشهبندی و الگوریت مهای K-means ، شبکه عصبی Kohone ، کشف ناهنجاری مبتنی بر خوشهبندی، مدل مخفی مارکوف، روش پردازش موازینگاشتکاهش و مدل ه مجوشی دمپستر شیفر فازی استفاده میشود. تجزیه و تحلیل با استفاده از نرمافزارهای MATLAB و R انجامشده است. مدل پیشنهادی توانسته است از نظر خروجی و زمان اجرا ، نسبت به مدلهای دیگر عملکرد برتری را به نمایشگذارد.کلمات کلیدی: کشف و ارزیا بی تقلب ، زنجیره تامین ، ANN, Big data پرونده مقاله -
دسترسی آزاد مقاله
23 - سیستم تشخیص نفوذ بهبود یافته مبتنی بر الگوریتم ژنتیک خود تطبیق جزیره ای برای حل ماشین بردار پشتیبان به صورت یادگیری چندهسته ای با کد کننده های خودکار
الهه فقیه نیا سید رضا کامل طباخ فریضنی مریم خیرآبادینفوذ به سیستمها از طریق زیرساخت شبکه و اینترنت یکی از چالشهای امنیتی است که دنیای فناوری اطلاعات و ارتباطات را با آن روبرو کرده است و میتواند منجر به تخریب سیستمها و دسترسی به دادهها و اطلاعات گردد. در این مقاله یک مدل ماشین بردار پشتیبان که هستههای آن وزندار شده چکیده کاملنفوذ به سیستمها از طریق زیرساخت شبکه و اینترنت یکی از چالشهای امنیتی است که دنیای فناوری اطلاعات و ارتباطات را با آن روبرو کرده است و میتواند منجر به تخریب سیستمها و دسترسی به دادهها و اطلاعات گردد. در این مقاله یک مدل ماشین بردار پشتیبان که هستههای آن وزندار شده به همراه پارامترهای هستههای ماشین بردار پشتیبان برای سیستم تشخیص نفوذ ارائه شده است. با توجه به پیچیدگی محاسباتی این مدل، روش الگوریتم ژنتیک جزیرهای پویای خود تطبیقی پیشنهاد شده تا پیچیدگی محاسبات را کم نماید. در این روش از اتوانکودر نیز برای کاهش حجم دادهها استفاده شده است. روش پیشنهادی یک روش ترکیبی پیشنهادی مبتنی بر اتوانکودر و ماشین بردار پشتیبان بهبودیافته با الگوریتم ژنتیک جزیرهای پویای خود تطبیق است که دقت بهتری در مسائل تشخیص نفوذ را نشان می دهد. نتایج شبیه سازی بر روی مجموعه داده DARPA برای تست عملکرد مورد استفاده قرار گرفته است. پرونده مقاله -
دسترسی آزاد مقاله
24 - مروری جامع بر روش های داده محور در شبکه های هوشمند برق
خالق بهروز دهکردی هما موحدنژاد مهدی شریفیامروزه شبکه برق به طور چشم گیری در حال تبدیل شدن به شبکه هوشمند (SG)، به عنوان یک چشم انداز امیدوارکننده برای برخورداری از قابلیت اطمینان بالا و مدیریت کارآمد انرژی است. این انتقال به طور پیوسته در حال تغییر است و نیازمند روش های پیشرفته برای پردازش کلان داده های تولید چکیده کاملامروزه شبکه برق به طور چشم گیری در حال تبدیل شدن به شبکه هوشمند (SG)، به عنوان یک چشم انداز امیدوارکننده برای برخورداری از قابلیت اطمینان بالا و مدیریت کارآمد انرژی است. این انتقال به طور پیوسته در حال تغییر است و نیازمند روش های پیشرفته برای پردازش کلان داده های تولید شده از بخش های مختلف است. روش های هوش مصنوعی می توانند از طریق استخراج اطلاعات ارزشمند که توسط دستگاه های اندازه گیری و سنسور های موجود در شبکه تولید می شوند خدمات مبتنی بر داده را ارائه نمایند. به این منظور روش های یادگیری ماشین، یادگیری عمیق، یادگیری تقویتی و یادگیری عمیق تقویتی می توانند به کار گرفته شوند. این روش ها می توانند حجم زیادی از داده های جمع آوری شده را پردازش نموده و راه حل مناسبی برای مشکلات پیچیده صنعت برق ارائه نمایند. از این رو در این مقاله آخرین رویکرد های مبتنی بر هوش مصنوعی مورد استفاده در شبکه هوشمند برق برای کاربرد ها و منابع داده به طور جامع بررسی شده است. همچنین نقش کلان داده در شبکه هوشمند برق و ویژگی های آن از جمله چرخه حیات کلان داده و رویکردهای موثر آن مانند پیشگویی، تعمیرات قابل پیش بینی و تشخیص خطا در صنعت برق بیان می شود. پرونده مقاله -
دسترسی آزاد مقاله
25 - مقایسه وضعیت موجود مدیریت کلان داده با وضعیت مطلوب درآینده از دیدگاه مدیران ستادی و متخصصان فناوری اطلاعات در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور
زهرا رضایی زهره میرحسینی فرشته سپهرهدف: هدف پژوهش، بررسی وضعیت فعلی مدیریت کلان داده در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور و مقایسه آن با وضعیت مطلوب در آینده است. روش شناسی: این پژوهش از نوع پیمایشی تحلیلی است. جامعه آماری متشکل از 77 تن از کارشناسان فناوری اطلاعات، مدیران ستاد ی چکیده کاملهدف: هدف پژوهش، بررسی وضعیت فعلی مدیریت کلان داده در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور و مقایسه آن با وضعیت مطلوب در آینده است. روش شناسی: این پژوهش از نوع پیمایشی تحلیلی است. جامعه آماری متشکل از 77 تن از کارشناسان فناوری اطلاعات، مدیران ستاد ی و استانی و کتابداران هستند که به روش خوشه ای و نمونه گیری تصادفی ساده انتخاب شده اند. پرسشنامه ازلحاظ دو ضریب نسبی روایی محتوی (CVR) و شاخص روایی محتوی (CVI) مورد تایید قرار گرفت و پایایی پرسشنامه نیز بر اساس ضریب آلفای کرونباخ 86 %محاسبه شد. نتایج: کتابخانه های عمومی فعلی هوشمند نیستند(با میانگین 25/1) و فاقد سرعت آماده سازی وپردازش داده های موردنیاز(با میانگین 92/1)هستند . ازکلان داده های موجوددرشبکههای اجتماعی برای تجزیه وتحلیل تمایلات کاربران (با میانگین 22/1) استفاده نمی کنند . فقط زمینه راه اندازی وتقویت شبکه کتابخانه ها به میزان اندکی(با میانگین 08/2) فراهم است. در حالیکه کاربردکلان داده باعث دسترسی سریعتربه حجم زیادی ازداده ها (با میانگین 84/4) و افزایش کیفیت اطلاع رسانی وهدفمند شدن آن( میانگین 81/4) دروضعیت آیند می شود به شرط آنکه زیرساخت لازم جهت یکپارچه سازی اطلاعات واتصال کتابخانه ها(با میانگین 77/4) فراهم شود . نتیجه گیری: کلان داده دروضعیت فعلی به میزان بسیار اندکی در کتابخانه های عمومی کشور بکار گرفته می شود والزامات و زیر ساختهای آن نیز فراهم نیست. کلان داده ها تاثیرات مثبتی بر خدمات کتابخانه های عمومی خواهند داشت و این کتابخانه ها برای استفاده از آنها باید تمهیدات لازم را به موقع بیندیشند. پرونده مقاله -
دسترسی آزاد مقاله
26 - کاربرد کلان داده در کتابخانه های عمومی: تعیین ضرورت ها و عوامل تاثیرگذار
زهره میرحسینی زهرا رضایی فرشنه عرب زادههدف: هدف این مطالعه، مرور پژوهش های مرتبط با مدیریت کلان دادهها در کتابخانه های عمومی ، وابسته به نهاد کتابخانه های عمومی کشور و تعیین ضرورت ها و عوامل تاثیرگذار برآن است.روش پژوهش: این پژوهش از نوع کیفی و با استفاده از روش دلفی انجام شده است. در قسمت توصیفی، تحقیقات چکیده کاملهدف: هدف این مطالعه، مرور پژوهش های مرتبط با مدیریت کلان دادهها در کتابخانه های عمومی ، وابسته به نهاد کتابخانه های عمومی کشور و تعیین ضرورت ها و عوامل تاثیرگذار برآن است.روش پژوهش: این پژوهش از نوع کیفی و با استفاده از روش دلفی انجام شده است. در قسمت توصیفی، تحقیقات انجام گرفته در داخل و خارج از کشور مورد بررسی قرار گرفته اند و در بخش کیفی، گویه هایی طراحی شده است که در سه دور نظرات جامعه آماری پنلدلفی، متشکل از 20 نفر از متخصصان حوزه فناوری اطلاعات و علم اطلاعات و دانش شناسی جمع آوری و تحلیل شده است. 30 گویۀ پرسشنامه ازلحاظ دو ضریب نسبی روایی محتوی (CVR) و شاخص روایی محتوی (CVI) مورد تایید قرار گرفتند و پایایی پرسشنامه نیز بر اساس ضریب آلفای کرونباخ 86% محاسبه شد. یافتهها : یافته ها نشان داد تامین هزینه مربوط به تجهیزات وسرورهای قدرتمند، تامین ابزارهای تجزیه وتحلیل داده و روزآمد سازی دانش و مهارت های کتابداران از ضرورت های بهره گیری از کلان داده است.نتیجه گیری: آنچه از مطالعات انجام شده در مورد کاربرد کلان داده در کتابخانه ها به دست می آید آن است که کتابخانه ها در مسیر همگام سازی خود با پیشرفت های علمی و تکنولوژی با کمبود بودجه جهت تأمین منابع مورد نیاز روبرو هستند و کاستی هایی در این زمینه به چشم می خورد . پرونده مقاله -
دسترسی آزاد مقاله
27 - شناسایی ویژگیهای داده درخور جهت کشف دانش از سیستمهای کلان داده سلامت
فاطمه سلیمانی روزبهانی علی رجب زاده قطری رضا رادفرهدف: هدف مطالعه حاضر ارائه و معرفی عوامل تأیید کننده مطلوبیت ویژگیهای داده های مورد استفاده جهت کشف دانش از سیستمهای کلان داده سلامت بوده است.روش پژوهش: پژوهش پیش رو مطالعه توصیفی-تحلیلی است. جامعه آماری متخصصان حوزه علوم داده، بیوانفورماتیک و تحلیل اطلاعات سلامت داخ چکیده کاملهدف: هدف مطالعه حاضر ارائه و معرفی عوامل تأیید کننده مطلوبیت ویژگیهای داده های مورد استفاده جهت کشف دانش از سیستمهای کلان داده سلامت بوده است.روش پژوهش: پژوهش پیش رو مطالعه توصیفی-تحلیلی است. جامعه آماری متخصصان حوزه علوم داده، بیوانفورماتیک و تحلیل اطلاعات سلامت داخل و خارج از کشور بودند که با استفاده از روش گلوله برفی 655 نفر از آنها شناسایی شده، و برای آنها ابزار پژوهش پرسشنامه محقق ساخته ارسال شد که 247 پرسشنامه را تکمیل و برگرداندند. روش استفاده شده تحلیل دادهها، تحلیل عاملی اکتشافی و تأییدی با استفاده از نرمافزارهای0/26 SPSS و 8/8 Lisrel بوده است.یافته ها: نتایج تحلیل عاملی اکتشافی، شش عامل برای شناسایی ویژگیهای داده درخور تبیین نمود که عبارتند از کیفیت داده، پایداری داده، سازگاری داده، ارزشمندی و دسترسی پذیری داده، کارایی داده و صحت و کامل بودن و روی هم رفته 68 درصد از واریانس کل داده ها را دربرداشته است. شاخصهای برازش تحلیل تأییدی نشان داد که الگوی شش عاملی برازش قابل قبولی با داده ها دارد.نتیجه گیری: یافته های پژوهش حاکی از آن است که بر اساس مدل ارائه شده ویژگیهای داده بر فرایند کشف دانش از سیستمهای کلان داده سلامت تاثیر دارد و شش عامل شناسایی شده و 20 گویه سازنده این عوامل، میتواند ابزار مناسبی جهت شناسایی ویژگیهای داده های مناسب برای کشف دانش از سیستمهای کلان داده سلامت جهت به کارگیری موثر این سیستمها باشد که با تاکید بر عدم وابستگی به فرمت داده، خصایص فراگیر داده های حوزه سلامت را دربرگرفته و توجه به آن میتواند به تشخیص و درمان زودهنگام بیماریها کمک شایانی کند. پرونده مقاله -
دسترسی آزاد مقاله
28 - بررسی دسترسی به کلان دادهها و استفاده از آنها در تصمیم گیری های زنجیره تأمین مبتنی بر مدل مالی با رویکرد تلفیقی ANN- Big data
الناز علیخانی زنجانی فرید عسگری امیر نجفی بابک حاجی کریمیهدف از این مطالعه، بررسیِ رویکرد حاضر از طریق توسعه و سنجش مقیاسی جهت ارزیابی میزان در دسترس بودنِ کلان دادهها و همچنین نقش و عملکرد اولویتبندی کلان دادهها در تصمیم گیریها میباشد. این تحقیق از نوع توصیفیـ همبستگی میباشد که با استفاده از روش پیمایشی انجام گرفته اس چکیده کاملهدف از این مطالعه، بررسیِ رویکرد حاضر از طریق توسعه و سنجش مقیاسی جهت ارزیابی میزان در دسترس بودنِ کلان دادهها و همچنین نقش و عملکرد اولویتبندی کلان دادهها در تصمیم گیریها میباشد. این تحقیق از نوع توصیفیـ همبستگی میباشد که با استفاده از روش پیمایشی انجام گرفته است. جامعه آماری این پژوهش را مدیران و کارشناسان شرکت ایران خودرو شهر زنجان در سال 1400 تشکیل میدادند که تعداد آنها 108 نفر میباشند. برای تعیین حجم نمونه از جدول برآورد حجم نمونه کرجسی و مورگان استفاده گردید و حجم نمونه 84 نفر تخمین زده شد و برای انتخاب نمونه آماری تحقیق، از روش نمونهگیری تصادفی ساده استفاده شد ابزار اصلی این تحقیق پرسشنامهای است که روایی آن با کسب نظرات اساتید و صاحبنظران در حوزههای مدیریت صنعتی به دست آمد. پایایی پرسشنامه از طریق ضریب آلفای کرونباخ آزمون شد و مورد تأیید قرار گرفت. ﺑﺮای ﺗﺤﻠﯿﻞ دادهﻫﺎ از ﻣﺪلﯾﺎﺑﯽ ﻣﻌﺎدﻻت ﺳﺎﺧﺘﺎری ﺑﺎ ﮐﻤﮏ ﻧﺮماﻓﺰار Spss و Smart-PLS اﺳﺘﻔﺎده ﺷﺪ. نتایج حاصل از این پژوهش نشان داد که قابل دسترس بودن کلان دادهها بر تصمیم گیری SCM و ایده پردازی کلان داده ها (BDP) تاثیر مثبت و معناداری دارد. همچنین نتایج پژوهش نشان داد که اندازه ایده پردازی کلان داده ها (BDP) با استفاده از کلان داده ها بر تصمیم گیری SCM و استفاده از کلان داده ها در تصمیم گیری SCM بر عملکرد SCM تاثیر مثبت و معنی داری دارد. پرونده مقاله -
دسترسی آزاد مقاله
29 - تأثیر رویکردهای آموزش سنتی و روش دادههای بزرگ بر پیشرفت تحصیلی دانشجویان حسابداری
محمد نمازی زهره رئیسیچکیدههدف پژوهش حاضر بررسی تأثیر روشهای مختلف آموزش بر پیشرفت تحصیلی دانشجویان حسابداری است تا مؤثرترین شیوه آموزش به گونه تجربی مشخص گردد و بتوان بدان وسیله پیشرفت تحصیلی را در بین دانشجویان حسابداری بهبود بخشید. در این راستا با بکارگیری رویکرد سنتی و نیز رویکردهای نوی چکیده کاملچکیدههدف پژوهش حاضر بررسی تأثیر روشهای مختلف آموزش بر پیشرفت تحصیلی دانشجویان حسابداری است تا مؤثرترین شیوه آموزش به گونه تجربی مشخص گردد و بتوان بدان وسیله پیشرفت تحصیلی را در بین دانشجویان حسابداری بهبود بخشید. در این راستا با بکارگیری رویکرد سنتی و نیز رویکردهای نوین آموزشی شامل رویکرد دادههای بزرگ، اثر آنها بر پیشرفت تحصیلی دانشجویان مورد بررسی قرار گرفت. جامعه این پژوهش شامل کلیه دانشجویان رشته حسابداری است که در مقطع کارشناسی دانشگاه آزاد اسلامیشیراز مشغول به تحصیل بودهاند و نمونه مورد مطالعه 247 نفر میباشد. با استفاده از روش آزمایشگاهی و طرح پیش آزمون-پس آزمون، دو گروه آزمایش با رویکردهای سنتی و دادههای بزرگ در کارگاههای حسابداری پیشرفته 2، حسابداری صنعتی 2 و حسابرسی 1 شرکت کردند. تحلیل دادهها، با استفاده از الگوی معادلات ساختاری، آزمون ناپارامتری من ویتنی و رگرسیون سلسله مراتبی انجام شد. یافته های پژوهش نشان داد که هر دو روش آموزش به شیوه داده های بزرگ و آموزش به شیوه سنتی بر پیشرفت تحصیلی دانشجویان تأثیر مثبت معناداری دارند. همچنین، یافته ها نشان داد که تأثیر آموزش به شیوه داده های بزرگ بر پیشرفت تحصیلی دانشجویان حسابداری در مقایسه با آموزش به شیوه سنتی بیشتر است. نتایج پژوهش بر ضرورت آموزش به شیوه دادههای بزرگ در برنامه آموزشی حسابداری در مقطع کارشناسی برای افزایش دانش دانشجویان تأکید میکند پرونده مقاله -
دسترسی آزاد مقاله
30 - Application of Big Data Analytics in Power Distribution Network
Foroogh Sedighi Mohammadreza Jabbarpour Sheyda SeyedfarshiSmart grid enhances optimization in generation, distribution and consumption of the electricity by integrating information and communication technologies into the grid. Today, utilities are moving towards smart grid applications, most common one being deployment of smar چکیده کاملSmart grid enhances optimization in generation, distribution and consumption of the electricity by integrating information and communication technologies into the grid. Today, utilities are moving towards smart grid applications, most common one being deployment of smart meters in advanced metering infrastructure, and the first technical challenge they face is the huge volume of data generated from variety of smart devices including the meters. This data is beneficial for both customers and utilities, but only if the capability of using it and extracting knowledge and hidden patterns from data is exploited. In this article, a brief overview of data sources along with applications of big data analytics in power distribution networks and related analytical data models are presented. At the end, big data management tools and techniques applicable in power distribution networks are introduced. پرونده مقاله -
دسترسی آزاد مقاله
31 - تحلیل خوشههای موضوعی و ترسیم نقشه علمی پژوهشهای حوزه کلان داده و آموزش آنلاین پایگاه علمی اسکوپوس
مهدی علیرضانژاد سهیل دادفرتوسعه کلان داده در سال های اخیر، موجب تولید علم قابل توجهی در این خصوص در پایگاه های استنادی معتبر بین المللی شده است. هدف مطالعه حاضر تحلیل خوشه های موضوعی و ترسیم نقشه علمی پژوهش های منتشر شده جهت شناسایی وضعیت موجود تحقیقات حوزه کلان داده و آموزش آنلاین در اسکوپوس اس چکیده کاملتوسعه کلان داده در سال های اخیر، موجب تولید علم قابل توجهی در این خصوص در پایگاه های استنادی معتبر بین المللی شده است. هدف مطالعه حاضر تحلیل خوشه های موضوعی و ترسیم نقشه علمی پژوهش های منتشر شده جهت شناسایی وضعیت موجود تحقیقات حوزه کلان داده و آموزش آنلاین در اسکوپوس است. پژوهش حاضر یک مطالعه کمی و کاربردی بود و از روش های علم سنجی شامل تحلیل هم واژگانی و تحلیل شبکه استفاده شد. جامعه پژوهش، کلیه اسنادی بود که در حوزه کلان داده و آموزش آنلاین در پایگاه استنادی اسکوپوس منتشر شده بودند که بررسی و تحلیل شدند. به منظور تجزیه و تحلیل داده ها از نرم افزار Vosviewer استفاده شد. یافته های علم سنجی نشان داد که تا تاریخ 25 نوامبر 2023 کشور های چین (700 سند)، ایالات متحده امریکا (240 سند) و هند (110 سند) به ترتیب بیشترین اسناد علمی را در حوزه کلان داده و آموزش در پایگاه اسکوپوس داشتند. ایران با تنها 8 سند منتشر شده، در پایین ترین سطح این رتبه بندی قرار داشت. همچنین نتایج نشان داد خوشه های کلان داده، آموزش، آموزش آنلاین (برخط) ، تدریس، سیستم های یادگیری، هوش مصنوعی، داده کاوی، یاد گیری ماشین از مهم ترین خوشه های حوزه کلان داده و آموزش بودند. در نهایت اینکه، با توجه به اینکه ایران دارای کم ترین اسناد منتشر شده در حوزه کلان داده و آموزش بود، ضروری است محققان به تعیین نیازمندی های پژوهشی بپردازند و بر این اساس به توسعه دانش حوزه کلان داده و آموزش کمک نمایند. پرونده مقاله