• فهرست مقالات Big data

      • دسترسی آزاد مقاله

        1 - پیش بینی قیمت سهام با استفاده از روش داده کاوی
        مجتبی حاجی غلامی
        این مقاله به بررسی روش‌های داده کاوی برای پیش‌بینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیش‌بینی روند با استفاده از داده کاوی می‌پردازد. این مقاله همچنین به بررسی تأثیر استفاده از روش‌های داده کاوی در بازار سهام و کارایی آن در این زمینه می‌پردازد. در این ت چکیده کامل
        این مقاله به بررسی روش‌های داده کاوی برای پیش‌بینی بازار های مالی و تحلیل توسعه پایدار موضوعات مالی و پیش‌بینی روند با استفاده از داده کاوی می‌پردازد. این مقاله همچنین به بررسی تأثیر استفاده از روش‌های داده کاوی در بازار سهام و کارایی آن در این زمینه می‌پردازد. در این تحقیق یک رویکرد یادگیری ماشینی معرفی میشود که اطلاعات را با استفاده از داده های موجودی عمومی میسازد و از آن اطلاعات برای پیشبینی دقیق استفاده میکند. همچنین به بررسی گونه‌های متنوعی از روش‌های داده کاوی می‌پردازد که در حوزه تجزیه و تحلیل بازارهای مالی کاربرد دارند و به طور ویژه تمرکز خود را بر پیش‌بینی روندهای بازار سهام معطوف می‌دارد. مطالعه ما نشان می‌دهد که از آنجایی که بازارهای مالی پویا و متغیر هستند و همواره تحت تأثیر عوامل اقتصادی، سیاسی و اجتماعی قرار دارند، استفاده از روش‌های یادگیری ماشینی و داده کاوی می‌تواند در پیش‌بینی دقیق‌تر حرکات قیمتی سهام مؤثر واقع شود. با توجه به داده‌های گسترده و پیچیده موجود در بازارهای مالی، روش‌های داده کاوی می‌توانند پتانسیل فراوانی در کشف الگوهای پنهان و تعیین ارتباط میان متغیرهای مختلف داشته باشند. در این راستا، الگوریتم‌های مختلف یادگیری ماشینی مانند شبکه‌های عصبی مصنوعی، ماشین‌های بردار پشتیبان و جنگل‌های تصادفی به عنوان مثال مورد استفاده قرار گرفته و در کنار آنالیزهای آماری، به بهبود قابلیت‌های تحلیل‌گران و سرمایه‌گذاران در تصمیم‌گیری‌های اقتصادی کمک می‌کنند. استفاده از داده‌های بزرگ و تحلیل‌های پیچیده همچنین به توسعه استراتژی‌های معاملاتی هوشمندانه که می‌توانند به بهینه‌سازی بازگشت سرمایه کمک کنند، کمک نموده است. برای نمونه، تحلیلگران می‌توانند با ادغام داده‌های احساسی حاصل از شبکه‌های اجتماعی در مدل‌های پیش‌بینی خود، دقت تخمین‌های خود را ارتقا بدهند. این مطالعه تأکید دارد که توسعه پایدار در بازارهای مالی نیازمند تحلیلی دقیق‌تری از داده‌ها است که در نهایت منجر به تصمیم‌گیری‌های مبتنی بر داده و فرآیندهای معاملاتی قوی تر می‌شود. پرونده مقاله
      • دسترسی آزاد مقاله

        2 - ارائه مدلی برای خلق ارزش سازمانی با استفاده از تجزیه‌وتحلیل کلان‌داده
        علی میرعرب سیده لیلی میرطاهری سید امیر اصغری
        خلق ارزش یک عامل اصلی در پایداری و تعالی سازمان‌ها است که علاوه بر حداکثر سازی سود، حفظ مشتری، دستیابی به اهداف کسب‌وکار و ایجاد درآمد را به دنبال دارد. ایجاد ارزش یک فرآیند پیچیده است، به‌خصوص هنگامی‌که شامل عوامل بیرونی و درونی سازمان می‌شود. زمانی که این فرآیند بر رو چکیده کامل
        خلق ارزش یک عامل اصلی در پایداری و تعالی سازمان‌ها است که علاوه بر حداکثر سازی سود، حفظ مشتری، دستیابی به اهداف کسب‌وکار و ایجاد درآمد را به دنبال دارد. ایجاد ارزش یک فرآیند پیچیده است، به‌خصوص هنگامی‌که شامل عوامل بیرونی و درونی سازمان می‌شود. زمانی که این فرآیند بر روی سناریوهای کلان‌داده اعمال می‌شود، خلق ارزش باید در یک مقیاس پیچیدگی وسیع‌تری درک و شناخته شود. سؤالی که در اینجا مطرح می‌شود این است که سازمان‌ها از این حجم عظیم داده چگونه می‌توانند استفاده کنند و برای خود ارزش ایجاد کنند؟ پژوهش حاضر با هدف ارائه مدلی برای خلق ارزش سازمانی با تجزیه‌وتحلیل کلان‌داده طراحی و ارائه شده است. برای این منظور، با بررسی پیشینه تحقیق و مصاحبه با افراد متخصص و خبره، مدل خلق ارزش برای سازمان با تجزیه‌و‌تحلیل کلان‌داده طراحی و بر اساس آن، پنج فرضیه تعریف و برای آزمون آن‌ها پرسشنامه‌ای طراحی و در اختیار جامعه آماری تحقیق (مدیران و کارشناسان فناوری اطلاعات (به‌خصوص کارشناسان و مدیران تحلیل داده) قرار داده شد. با استفاده از مدل‌یابی معادلات ساختاری (مدل‌های اندازه‌گیری و ساختاری) روابط بین متغیرهای مدل بررسی شدند. نتایج نشان‌دهنده آن است که برای خلق ارزش سازمانی از تجزیه‌وتحلیل کلان‌داده لازم است ابتدا زیرساخت‌های تجزیه‌وتحلیل کلان‌داده و قابلیت‌های تجزیه‌وتحلیل کلان‌داده و سازمان بررسی شده و بر اساس آن راهبرد تجزیه‌وتحلیل کلان‌داده تدوین و در نهایت خلق ارزش سازمانی شکل‌دهی شود. پرونده مقاله
      • دسترسی آزاد مقاله

        3 - Implementation of Random Forest Algorithm in Order to Use Big Data to Improve Real-Time Traffic Monitoring and Safety
        Negin Fatholahzade Gholamreza Akbarizadeh Morteza Romoozi
        Nowadays the active traffic management is enabled for better performance due to the nature of the real-time large data in transportation system. With the advancement of large data, monitoring and improving the traffic safety transformed into necessity in the form of act چکیده کامل
        Nowadays the active traffic management is enabled for better performance due to the nature of the real-time large data in transportation system. With the advancement of large data, monitoring and improving the traffic safety transformed into necessity in the form of actively and appropriately. Per-formance efficiency and traffic safety are considered as an im-portant element in measuring the performance of the system. Although the productivity can be evaluated in terms of traffic congestion, safety can be obtained through analysis of incidents. Exposure effects have been done to identify the Factors and solutions of traffic congestion and accidents.In this study, the goal is reducing traffic congestion and im-proving the safety with reduced risk of accident in freeways to improve the utilization of the system. Suggested method Man-ages and controls traffic with use of prediction the accidents and congestion traffic in freeways. In fact, the design of the real-time monitoring system accomplished using Big Data on the traffic flow and classified using the algorithm of random-ized forest and analysis of Big Data Defined needs. Output category is extracted with attention to the specified characteristics that is considered necessary and then by Alarms and signboards are announced which are located in different parts of the freeways and roads. All of these processes are evaluated by the Colored Petri Nets using the Cpn Tools tool. پرونده مقاله
      • دسترسی آزاد مقاله

        4 - Survey on Perception of People Regarding Utilization of Computer Science & Information Technology in Manipulation of Big Data, Disease Detection & Drug Discovery
        Md Sarowar Azim Khan Maruf Shakil Mohammad Ullah
        this research explores the manipulation of biomedical big data and diseases detection using automated computing mechanisms. As efficient and cost effective way to discover disease and drug is important for a society so computer aided automated system is a must. This pap چکیده کامل
        this research explores the manipulation of biomedical big data and diseases detection using automated computing mechanisms. As efficient and cost effective way to discover disease and drug is important for a society so computer aided automated system is a must. This paper aims to understand the importance of computer aided automated system among the people. The analysis result from collected data contributes to finding an effective result that people have enough understanding and much better knowledge about big data and computer aided automated system. moreover, perspective and trustworthiness of people regarding recent advancement of computer aided technologies in biomedical science have been demonstrated in this research. however, appearance of big data in the field of medical science and manipulation of those data have been concentrated on this research. Finally suggestions have been developed for further research related to computer technology in manipulation of big data, disease detection and drug discovery. پرونده مقاله
      • دسترسی آزاد مقاله

        5 - A Fuzzy TOPSIS Approach for Big Data Analytics Platform Selection
        Salah Uddin Mizanur Rahman Samaun Hasan S.M. Irfan Rana Shaikh Muhammad Allayear
        Big data sizes are constantly increasing. Big data analytics is where advanced analytic techniques are applied on big data sets. Analytics based on large data samples reveals and leverages business change. The popularity of big data analytics platforms, which are often چکیده کامل
        Big data sizes are constantly increasing. Big data analytics is where advanced analytic techniques are applied on big data sets. Analytics based on large data samples reveals and leverages business change. The popularity of big data analytics platforms, which are often available as open-source, has not remained unnoticed by big companies. Google uses MapReduce for PageRank and inverted indexes. Facebook uses Apache Hadoop to analyse their data and created Hive. eBay uses Apache Hadoop for search optimization and Twitter uses Apache Hadoop for log file analysis and other generated data[ 1]. Different Big data analytics platform providers are providing different types of facilities. To select those analytics platform for our business and public sector institutions purpose we follow multiple criteria. Multiple criteria decision making (MCDM) is mostly used in ranking one or more alternatives from finite set of available alternatives with respect to multiple criteria. Among many multi-criteria techniques, MAXMIN, MAXMAX, SAW, AHP, TOPSIS, SMART, ELECTRE are the most frequently used methods. The TOPSIS (Technique for Order Preference by Similarity to the Ideal Solution) methods are simplicity, rationality, comprehensibility, good computational efficiency and ability to measure the relative performance for each alternative in a simple mathematical form. پرونده مقاله
      • دسترسی آزاد مقاله

        6 - 2016 Olympic Games on Twitter: Sentiment Analysis of Sports Fans Tweets using Big Data Framework
        Azam Seilsepour Reza Ravanmehr Hamid Reza Sima
        Big data analytics is one of the most important subjects in computer science. Today, due to the increasing expansion of Web technology, a large amount of data is available to researchers. Extracting information from these data is one of the requirements for many organiz چکیده کامل
        Big data analytics is one of the most important subjects in computer science. Today, due to the increasing expansion of Web technology, a large amount of data is available to researchers. Extracting information from these data is one of the requirements for many organizations and business centers. In recent years, the massive amount of Twitter's social networking data has become a platform for data mining research to discover facts, trends, events, and even predictions of some incidents. In this paper, a new framework for clustering and extraction of information is presented to analyze the sentiments from the big data. The proposed method is based on the keywords and the polarity determination which employs seven emotional signal groups. The dataset used is 2077610 tweets in both English and Persian. We utilize the Hive tool in the Hadoop environment to cluster the data, and the Wordnet and SentiWordnet 3.0 tools to analyze the sentiments of fans of Iranian athletes. The results of the 2016 Olympic and Paralympic events in a one-month period show a high degree of precision and recall of this approach compared to other keyword-based methods for sentiment analysis. Moreover, utilizing the big data processing tools such as Hive and Pig shows that these tools have a shorter response time than the traditional data processing methods for pre-processing, classifications and sentiment analysis of collected tweets. پرونده مقاله
      • دسترسی آزاد مقاله

        7 - A Review of Anonymity Algorithms in Big Data
        Elham shamsinejad Mir Mohsen Pedram Amir Masoud Rahamni Touraj BaniRostam
        By increasing access to high amounts of data through internet-based technologies such as social networks and mobile phones and electronic devices, many companies have considered the issues of accessing large, random and fast data along with maintaining data confidential چکیده کامل
        By increasing access to high amounts of data through internet-based technologies such as social networks and mobile phones and electronic devices, many companies have considered the issues of accessing large, random and fast data along with maintaining data confidentiality. Therefore, confidentiality concerns and protection of specific data disclosure are one of the most challenging topics. In this paper, a variety of data anonymity methods, anonymity operators, the attacks that can endanger data anonymity and lead to the disclosure of sensitive data in the big data have been investigated. Also, different aspects of big data such as data sources, content format, data preparation, data processing and common data repositories will be discussed. Privacy attacks and contrastive techniques like k anonymity, neighborhood t and L diversity have been investigated and two main challenges to use k anonymity on big data will be identified, as well. Two main challenges to use k anonymity on big data will be identified. The first challenge of confidential attributes can also be as pseudo-identifier attributes, which increases the number of pseudo-identifier elements, and it may lead to the loss of great information to achieve k anonymity. The second challenge in big data is the unlimited number of data controllers are likely to lead to the disclosure of sensitive data through the independent publication of k anonymity. Then different anonymity algorithms will be presented and finally, the different parameters of time order and the consumable space of big data anonymity algorithms will be compared. پرونده مقاله
      • دسترسی آزاد مقاله

        8 - An Assessment of Big Data Analytics on Auditing and Accounting: A Bibliometric Analysis
        Maryam Nouraei Forouzan Mohamadi Yarijani
        AbstractThis article examines the emerging trend of big data studies within the realms of accounting, auditing, and finance and explores the theoretical underpinnings of big data in the area of finance, focusing on the research process and data analysis methods employed چکیده کامل
        AbstractThis article examines the emerging trend of big data studies within the realms of accounting, auditing, and finance and explores the theoretical underpinnings of big data in the area of finance, focusing on the research process and data analysis methods employed. Utilizing the Scopus scientific database and VosViewer bibliography software, an extensive assessment of available literature was conducted. Furthermore, the study presents a network examination of commonly recurring keywords in highly cited articles and showcases three influential publications. This study recommends that Iranian companies embrace these advancements for promoting research and development. Additionally, it advises utilizing notable keywords, highly cited authors, and leading countries in big data research within the financial sector. Through the study of citation patterns, it was revealed that Vasarhely emerged as a highly influential author within the domain of big data studies in accounting, auditing, and finance. The United States, China, and England emerged as the top contributors to the field, having published the highest number of articles. The research also delves into Iran's position in this context, highlighting potential areas for growth and development. پرونده مقاله
      • دسترسی آزاد مقاله

        9 - Financial Risk Management in the Supply Chain Using Business Intelligence and Big Data
        Nemer Badwan Lamees Al-Zoubi Suhaib Al-Khazaleh
        Financial risk management and risk identification management have evolved into critical components of global supply networks. Machine learning, business intelligence, and big data technologies are used to detect system risks, manage financial risks, and help identify th چکیده کامل
        Financial risk management and risk identification management have evolved into critical components of global supply networks. Machine learning, business intelligence, and big data technologies are used to detect system risks, manage financial risks, and help identify the cause of risks. The company may strive to improve the source of the risk. The methodology concentrates on three major supply chain danger areas: shipping, marketing, and distribution, with a licensed insurance model built, evaluated, and matched to current approaches before being adjusted based on the results. In this scenario, we're also using Business Intelligence (BI), which helps businesses make better data-driven decisions. As a result, reduce losses incurred. A framework of risk detection models based on machine learning, business intelligence and big data is provided to control financial risks in the supply chain. This study aims to identify risks, identify their sources and mitigate them. The proposed approach focuses on three distinct areas of supply chain risk: transportation, sales, and delivery. A risk disclosure model is used, tested, compared with existing methodologies, and then refined depending on the results for each area. Regardless of the supply chain data used, the proposed method is adaptable to any other type of supply chain. پرونده مقاله
      • دسترسی آزاد مقاله

        10 - ارائه الگویی در مدیریت ارتباط با مشتری (CRM) در فروشگاه‌های زنجیره‌ای تخفیفی با بکارگیری اینترنت اشیاء و بیگ دیتا
        محمد رضا رستمی اسحاق قورچی بیگی
        موفقیت در ارتباط با مشتری به طور فزاینده‌ای به مدیریت دانش بستگی دارد. استخراج دانش در مدیریت ارتباط با مشتری از آنجایی پررنگ‌تر می‌شود که حجم بسیار انبوهی از داده درباره مشتریان، ویژگی‌های آنان و رفتار آن‌ها وجود داشته باشد. در چنین شرایطی استفاده از الگوریتم‌ها و فنون چکیده کامل
        موفقیت در ارتباط با مشتری به طور فزاینده‌ای به مدیریت دانش بستگی دارد. استخراج دانش در مدیریت ارتباط با مشتری از آنجایی پررنگ‌تر می‌شود که حجم بسیار انبوهی از داده درباره مشتریان، ویژگی‌های آنان و رفتار آن‌ها وجود داشته باشد. در چنین شرایطی استفاده از الگوریتم‌ها و فنون کارا برای تحلیل این داده‌ها امری ضروری می‌باشد. هدف این پژوهش، ارائه الگویی در مدیریت ارتباط با مشتری (CRM) در فروشگاه‌های زنجیره‌ای تخفیفی از طریق بکارگیری اینترنت اشیاء و بیگ دیتا، می‌باشد. روش تجزیه و تحلیل اطلاعات، روش مدل‌سازی ساختاری تفسیری می‌باشد. در این پژوهش به منظور تکمیل پرسش‌نامه‌ها، از نظرات 20 فرد خبره در این زمینه استفاده شده است. مطابق مدل ساختاری تفسیری استخراج شده سطح اول سلسله مراتب متعلق به "موفقیت مدیریت ارتباط با مشتری (3)"، سطح دوم سلسله مراتب متعلق به "تبلیغات بازاریابی سفارشی (1) و بهبود حفظ مشتری (2)" و سطح سوم سلسله مراتب متعلق به "استراتژی قیمت‌گذاری (3)" می‌باشد، این بدان معنا است که این متغیرها از باقی متغیرها اثر می‌پذیرد. اثرگذارترین متغیر، "تجزیه و تحلیل در زمان واقعی (4)" می‌باشد. نتایج به دست آمده می‌تواند الگوی مناسبی برای فروشگاه‌های زنجیره‌ای کشور جهت مدیریت بهتر ارتباط با مشتریان و کسب مزیت رقابتی باشد. پرونده مقاله
      • دسترسی آزاد مقاله

        11 - آینده‌پژوهی حسابرسی از منظر فناوری اطلاعات، تغییرات مقرراتی، ساختاری و رویه‌ای
        زهرا عبدلی اباتری احسان کمالی امین رستمی آرزو آقایی چادگانی
        تحولات تکنولوژیک، حرفه حسابرسی را با چالش منسوخ شدن روش‌های قدیمی و سنتی مواجه کرده است. روش‌های سنتی حسابرسی دیگر پاسخگوی حسابرسی سازمان‌های بزرگ و پیچیده امروزی نیستند. از این‌رو بکارگیری فناوری اطلاعات وابزارهای نوین اطلاعاتی در ارائه اطلاعات به هنگام و دقیق در خصوص چکیده کامل
        تحولات تکنولوژیک، حرفه حسابرسی را با چالش منسوخ شدن روش‌های قدیمی و سنتی مواجه کرده است. روش‌های سنتی حسابرسی دیگر پاسخگوی حسابرسی سازمان‌های بزرگ و پیچیده امروزی نیستند. از این‌رو بکارگیری فناوری اطلاعات وابزارهای نوین اطلاعاتی در ارائه اطلاعات به هنگام و دقیق در خصوص جریان های مالی موسسات حسابرسی امری حیاتی به نظر می‌رسد. صاحب نظران بر این عقیده هستند که در دنیای امروز، برنامه‌ریزی و آینده‌نگری ضرورتی اجتناب ناپذیر است و لازمه آن نیز آینده‌پژوهی است. در این پژوهش به آینده‌پژوهی تغییرات شیوه های حسابرسی که انتظار می‌رود طی ده تا بیست سال آینده در ایران انجام شود پرداخته شده است. این پژوهش بر مبنای هدف از نوع کاربردی و بر مبنای ابزار گردآوری داده‌ها از نوع توصیفی-پیمایشی و اکتشافی که به صورت پژوهش آمیخته (کمی-کیفی) انجام شده، می باشد. جامعه آماری پژوهش شامل اساتید دانشگاه و متخصصان حرفه حسابرسی می‌باشد. نظرات مشارکت کنندگان از طریق پرسشنامه باز، مصاحبه و دلفی در نیمه اول سال 1401 جمع آوری گردید. نتایج تحلیل دلفی در دو مرحله حاکی از پذیرش 24 پیشران در حوزه تغییر مقررات، ساختار و رویه‌های حسابرسی با توجه به پیشرفت سریع فناوری طی سال‎های آینده می‌باشد. تفسیر نتایج نشان می‌دهد که حسابرسی نیازمند تغییر و بروزرسانی در حوزه فناوری اطلاعات، قوانین و استانداردها، ساختار و رویه‌های حسابرسی می‌باشد. همچنین، ظهور و پذیرش مدل‌های جدید کسب و کار، حسابرس را ملزم به آشنایی با این مدل‌ها خواهد کرد و علیرغم دشواری‌هایی که فناوری‌های جدید ایجاد می‌کنند، به بهبود عملکرد حسابرسان کمک خواهد کرد و انتظار نمی‌رود اثرات مخربی بر حرفه حسابرسی داشته باشد. پرونده مقاله
      • دسترسی آزاد مقاله

        12 - تاثیر دیجیتالی شدن بر حسابرسی بخش عمومی (مطالعه در حوزه مدیریت شهری)
        زهرا عبدلی اباتری احسان کمالی امین رستمی آرزو آقایی چادگانی
        مقدمه و هدف پژوهش: با توجه به تحولات روزافزون فناوری، سیستم مدیریت شهری نیز با استفاده از فناوری‌های دیجیتال در حال تغییر و بهبود است. بر همین اساس حسابرسان نیز باید توانایی‌ها و مهارت‌های لازم برای ارزیابی سیستم‌های مدیریتی دیجیتالی را داشته باشند. برای مثال، فناوری‌ها چکیده کامل
        مقدمه و هدف پژوهش: با توجه به تحولات روزافزون فناوری، سیستم مدیریت شهری نیز با استفاده از فناوری‌های دیجیتال در حال تغییر و بهبود است. بر همین اساس حسابرسان نیز باید توانایی‌ها و مهارت‌های لازم برای ارزیابی سیستم‌های مدیریتی دیجیتالی را داشته باشند. برای مثال، فناوری‌هایی مانند تحلیل داده‌ها، هوش مصنوعی و یادگیری ماشینی به حسابرسان امکان می‌دهند تا بتوانند بررسی دقیقی از اطلاعات و عملکرد مالی بخش عمومی ارائه دهند. در این پژوهش به بررسی تغییرات شیوه های حسابرسی بخش عمومی که انتظار می‌رود در سال‌های آینده در ایران انجام شود پرداخته شده است. روش پژوهش: این پژوهش بر مبنای هدف از نوع کاربردی و بر مبنای ابزار گردآوری داده‌ها از نوع توصیفی-پیمایشی و اکتشافی که به صورت پژوهش آمیخته (کمی-کیفی) انجام شده، می باشد. یافته ها: نتایج تحلیل دلفی در دو مرحله حاکی از پذیرش 25 پیشران در حوزه تغییر مقررات، ساختار و رویه‌های حسابرسی بخش عمومی با توجه به پیشرفت سریع فناوری طی سال‎های آینده می‌باشد. نتیجه گیری: تفسیر نتایج نشان می‌دهد که حسابرسی بخش عمومی نیازمند تغییر و بروزرسانی در حوزه فناوری اطلاعات، قوانین و استانداردها، ساختار و رویه‌های حسابرسی می‌باشد. از آنجایی که رویه‌های خودکار جایگزین روش‌های دستی می‌شوند، رسیدگی‌ها مستمر و دقیق‌تر انجام می‌شود. همچنین به نیروی انسانی کمتری نیاز خواهد بود که باعث خواهد شد هزینه‌ها به شدت کاهش یابد. پرونده مقاله
      • دسترسی آزاد مقاله

        13 - نقش کلان داده های شهری در شهرهای هوشمند
        خیراله همتی روزبه زمانیان
        سیستم های شهری شامل بسیاری از اجزای نزدیک به هم هستند که به دلیل حسگرها ی جدید، جمع آوری داده ها و روش های تحلیل مکانی-زمانی قابل اندازه گیر ی تر از قبل گشته اند. تبدیل این داده ها به دانش برای تسهیل تلاش های برنامه ریزی در پرداختن به چالش های کنونی سیستم های پیچیده شهر چکیده کامل
        سیستم های شهری شامل بسیاری از اجزای نزدیک به هم هستند که به دلیل حسگرها ی جدید، جمع آوری داده ها و روش های تحلیل مکانی-زمانی قابل اندازه گیر ی تر از قبل گشته اند. تبدیل این داده ها به دانش برای تسهیل تلاش های برنامه ریزی در پرداختن به چالش های کنونی سیستم های پیچیده شهری، نیازمند روش های تحلیل بین رشته ای پیشرفته، مانند انفورماتیک شهری یا علوم داده شهری است. با این حال، با اعمال یک رویکرد صرفا مبتنی بر داده، گمشدن در "جنگل" داده ها، و از دست دادن "درخت" شهر های موفق و قابل زندگی که هدف نهایی برنامه ریزی شهر ی هستند، بسیار آسان است. این مقاله بیان می کند که چگونه داده های جغرافیایی وتحلیل شهری، با استفاده از روش های ترکیبی، می تواند به درک بهتر پویایی شهری و رفتار انسانی کمک کند، و چگونه می تواند تلاش های برنامه ریزی برای بهبود زیست پذیری را ارتقاء دهد. بر اساس بررسی جدیدترین تحقیقات، این مقاله یک گام فراتر می رود و همچنین به پتانسیل و همچنین محدودیت های منابع داده جدید درتجزیه وتحلیل شهری می پردازد تا دید کلی بهتری از کل "جنگل" این منابع داده جدید داشته باشد. کار حاضرمروری کیفی بر اساس پژوهش های صورت گرفته با روش های تجزیه وتحلیل حول قابلیت اطمینان استفاده از داده های بزرگ از پلتفرم ها یا حس گرهای رسانه ها ی اجتماعی، و چگونگی استخراج اطلاعات از مقادیر انبوه داده از طریق روش های تحلیل جدید، مانند یادگیری ماشین، برای تصمیم گیری آگاهانه تر با هدف بهبود زیست پذیری شهری است. هدف این مقاله مطالعه ی مروری پیرامون برخی از هم افزایی ها و چالش های رویکرد بین رشته ای (تجزیه وتحلیل شهری مبتنی بر GISدر بهبود زیست پذیری شهرها، با بررسی یافته های کلیدی وسوالات به دست آمده از ادبیات پیشرفته) است. پرونده مقاله
      • دسترسی آزاد مقاله

        14 - Multi-Objective Model for Fair Pricing of Electricity Using the Parameters from the Iran Electricity Market Big Data Analysis
        M. Salami F. Movahedi Sobhani M. S. Ghazizadeh
        Assessment of the electricity market shows that, electricity market data can be considered "big data". this data has been analyzed by both conventional and modern data mining methods. The predicted variables of supply and demand are considered to be the input of a defin چکیده کامل
        Assessment of the electricity market shows that, electricity market data can be considered "big data". this data has been analyzed by both conventional and modern data mining methods. The predicted variables of supply and demand are considered to be the input of a defined multi-objective for predicting electricity price, which is the result of the defined model. This shows the advantage of applying the new algorithms for big data mining. پرونده مقاله
      • دسترسی آزاد مقاله

        15 - بررسی اثر میانجی بکارگیری کلان‌داده در رابطه‌ میان حاکمیت هیئت مدیره و تأخیر در ارائه‌ گزارش حسابرسی
        آناهیتا زندی
        هدف: هدف پژوهش حاضر، بررسی نقش میانجی استفاده از کلان‌داده در رابطه‌ میان حاکمیت هیئت مدیره و تأخیر در گزارش حسابرسی است. روش: تعداد 152 شرکت پذیرفته شده در بورس اوراق بهادار تهران در بازه زمانی 1395-1400 به‌عنوان نمونه پژوهش انتخاب شدند. همچنین برای بررسی رابطه‌ میان چکیده کامل
        هدف: هدف پژوهش حاضر، بررسی نقش میانجی استفاده از کلان‌داده در رابطه‌ میان حاکمیت هیئت مدیره و تأخیر در گزارش حسابرسی است. روش: تعداد 152 شرکت پذیرفته شده در بورس اوراق بهادار تهران در بازه زمانی 1395-1400 به‌عنوان نمونه پژوهش انتخاب شدند. همچنین برای بررسی رابطه‌ میان حاکمیت هیئت مدیره، بکارگیری کلان‌داده، و تأخیر در گزارش حسابرسی، از حداقل مربعات معمولی، مدل‌سازی معادله‌ ساختاری، استفاده شده است. یافته‌ها: نتایج نشان داد که می‌توان از کلان‌داده به عنوان پیش‌بینی‌کننده‌ تأخیر در ارائه‌ گزارش حسابرسی در شرکت‌های پذیرفته شده در بورس اوراق بهادار تهران استفاده کرد. همچنین هنگامی که از کلان‌داده به عنوان میانجی استفاده می‌شود، حاکمیت هیئت مدیره تأثیر معناداری روی تأخیر در گزارش حسابرسی دارد. نتیجه‌گیری: این پژوهش، سرمایه‌گذاران و ذینفعان را نسبت به اهمیت بکارگیری کلان‌داده و رویه‌های حاکمیت شرکتی در کاهش تأخیر در ارائه‌ گزارش حسابرسی آگاه می‌سازد. همچنین می‌تواند در ایجاد الزامات گزارش حسابرسی و اِعمال قوانین جهت تضمین انتشار به‌موقع گزارش حسابرسی، به قانون‌گذاران کمک نماید. همچنین تحقیق حاضر شواهد خاصی از نقش بکارگیری کلان‌داده در میانجی‌گری رابطه‌ میان حاکمیت هیئت مدیره و تأخیر در ارائه‌ گزارش حسابرسی را فراهم می‌کند. پرونده مقاله
      • دسترسی آزاد مقاله

        16 - مطالعه تطبیقی نرم افزارهای منبع باز استقرار و مدیریت رایانش ابری با استفاده از مدل کیفیت از دیدگاه پردازش کلان داده
        مهدی جعفری امیر کلباسی
        روز به روز حجم داده‌های تولید شده توسط انسان‌ها در حال افزایش است. ذخیره‌سازی و پردازش داده‌ها، یکی از مباحث بسیار مهم در مواجهه با کلان داده‌ها است که نیازمند منابع ذخیره‌سازی و پردازشی گسترده می‌باشد. رایانش ابری به دلیل ویژگی‌ها و معماری خود، به عنوان یک زیرساخت امید چکیده کامل
        روز به روز حجم داده‌های تولید شده توسط انسان‌ها در حال افزایش است. ذخیره‌سازی و پردازش داده‌ها، یکی از مباحث بسیار مهم در مواجهه با کلان داده‌ها است که نیازمند منابع ذخیره‌سازی و پردازشی گسترده می‌باشد. رایانش ابری به دلیل ویژگی‌ها و معماری خود، به عنوان یک زیرساخت امیدبخش برای این مساله مطرح است. برای ذخیره‌سازی و پردازش داده‌ها در بستر ابری، افراد و سازمان‌ها ممکن است برای کنترل و دسترسی بیشتر روی منابع و داده‌ها تمایل بیشتری به استقرار و مدیریت ابرهای خصوصی داشته باشند. برای استقرار و مدیریت ابرهای خصوصی نرم‌افزارهای متعدد منبع‌باز ارائه شده است که گزینش بین آنها به عنوان یک چالش به خصوص برای کسانی که تازه در این راه قدم بر می‌دارند مطرح است. هدف ما در این مقاله ارائه یک مدل کیفیت برای مدیریت زیرساخت ابری و مقایسه نرم‌افزارهای محبوب Eucalyptus، OpenStack و CloudStack بر اساس مدل کیفیت ارائه شده با تمرکز بر کلان داده به منظور نمایش قابلیت‌ها، ضعف‌ها و برتری‌های هر کدام در جهت کمک به گزینش بین آنها می باشد. پرونده مقاله
      • دسترسی آزاد مقاله

        17 - ارائه یک روش جدید برای تشخیص نفوذ و رفتارهای مخرب در داده های حجیم
        هما موحد نژاد محسن پورشعبان احسان یزدانی چمزینی الهه همتی اشنی مهدی شریفی
        امروزه حفظ امنیت اطلاعات و تشخیص نفوذ به¬منظور مقابله با رفتارهای مخرب در داده¬های حجیم از اهمیت بسزایی برخوردار است. در این مقاله یک روش ترکیبی نرم¬افزاری سخت¬افزاری برای تشخیص داده¬های مخرب ارائه شده است. در این روش سه فاکتور پیشرفت زمانی، تاریخچه کاربران و مقیاس¬پذیر چکیده کامل
        امروزه حفظ امنیت اطلاعات و تشخیص نفوذ به¬منظور مقابله با رفتارهای مخرب در داده¬های حجیم از اهمیت بسزایی برخوردار است. در این مقاله یک روش ترکیبی نرم¬افزاری سخت¬افزاری برای تشخیص داده¬های مخرب ارائه شده است. در این روش سه فاکتور پیشرفت زمانی، تاریخچه کاربران و مقیاس¬پذیری لحاظ شده است. در روش پیشنهادی از تکنیک¬های ذخیره¬سازی و استخراج ویژگی جهت افزایش سرعت و کاهش حجم محاسبات استفاده می¬شود. همچنین برای طبقه¬بندی از الگوریتم ماشین بردار پشتیبان تغییر یافته و برای عملیات استخراج ویژگی‌ها از الگوریتم غذایابی باکتری بصورت موازی‌سازی شده، بهره برده شده است. نتایج نشان می‌دهد که الگوریتم پیشنهادی نسبت به سایر روش¬های مشابه، از نظر نرخ تشخیص 21%، نرخ مثبت کاذب 62%، دقت 15% و زمان اجرا 70% بهتر عمل می¬کند. کاهش زمان اجرا بیانگر آن است که برای اجرای الگوریتم به انرژی مصرفی کمتری نیاز است که در نتیجه می‌تواند علاوه بر صرفه‌جویی انرژی؛ جهت بکارگیری در سیستم‌های انرژی سبز نیز سودمند باشد. پرونده مقاله
      • دسترسی آزاد مقاله

        18 - Computing the Efficiency of Bank Branches with Financial Indexes, an Application of Data Envelopment Analysis (DEA) and Big Data
        Fahimeh Jabbari-Moghadam Farhad Hosseinzadeh Lotfi Mohsen Rostamy-Malkhalifeh Masoud Sanei Bijan Rahmani-Parchkolaei
        In traditional Data Envelopment Analysis (DEA) techniques, in order to calculate the efficiency or performance score, for each decision-making unit (DMU), specific and individual DEA models are designed and resolved. When the number of DMUs are immense, due to an increa چکیده کامل
        In traditional Data Envelopment Analysis (DEA) techniques, in order to calculate the efficiency or performance score, for each decision-making unit (DMU), specific and individual DEA models are designed and resolved. When the number of DMUs are immense, due to an increase in complications, the skewed or outdated, calculating methods to compute efficiency, ranking and …. may not prove to be economical. The key objective of the proposed algorithm is to segregate the efficient units from that of the other units. In order to gain access to this objective, effectual indexes were created; and taken to assist, in regards the DEA concepts and the type of business (under study), to survey the indexes, which were relatively operative. Subsequently, with the help of one of the clustering techniques and the ‘concept of dominance’, the efficient units were absolved from the inefficient ones and a DEA model was developed from an aggregate of the efficient units. By eliminating the inefficient units, the number of units which played a role in the construction of a DEA model, diminished. As a result, the speed of the computational process of the scores related to the efficient units increased. The algorithm designed to measure the various branches of one of the mercantile banks of Iran with financial indexes was implemented; resulting in the fact that, the algorithm has the capacity of gaining expansion towards big data. پرونده مقاله
      • دسترسی آزاد مقاله

        19 - Designing a Model for Implementing the Fourth Generation Industry to Achieve Sustainable Development Goals in the Automotive Industry (Case Study: Iran KhodroCompany(
        Amir Ardehi Habibollah Javanmard Nazanin Pilevari
        The automotive industry, as a job-creating and infrastructure industry, needs an executive model for success in the domestic and international markets. In this regard, the present study has been conducted with the aim of designing a model for implementing the fourth gen چکیده کامل
        The automotive industry, as a job-creating and infrastructure industry, needs an executive model for success in the domestic and international markets. In this regard, the present study has been conducted with the aim of designing a model for implementing the fourth generation industry to achieve sustainable development goals in Iran Khodro Company. The study is an applied-developmental study in terms of purpose and cross-sectional survey research. Also, in this study, a mixed research method (qualitative-quantitative) was used. Content analysis method and MaxQDA software were used for data analysis in the qualitative section. Then, using Interpretive Structural Modeling (ISM) with MICMAC software, the initial pattern was drawn. In the quantitative section, one-sample t-test and SPSS software were used to measure the current situation. The research findings showed that the Collection and Analysis of Big Data affects the Simulation and Automatic Robots. These factors affect horizontally and vertically integration systems and thus lead to the Internet of Industrial Things, Augmented Reality and Cyber Security. Further, through the Cloud Computing system, Additive Manufacturing is affected and this Additive Manufacturing leads to Sustainable Development. پرونده مقاله
      • دسترسی آزاد مقاله

        20 - Identification of influencing factors on implementation of smart city plans based on approach of technical and social system
        Ali Safarzadeh Ghasemali Bazaei Mehdi Faghihi
        The current research seeks to identify the influencing factors on implementation of smart city plans based on approach of technical and social systems. For this goal, the library study is done and then based on that a research plan is written that include using expert o چکیده کامل
        The current research seeks to identify the influencing factors on implementation of smart city plans based on approach of technical and social systems. For this goal, the library study is done and then based on that a research plan is written that include using expert opinions and data mining technique, feature selection ,clustering and also Delphi technique to identify and screen factors and then using clustering, the final factors are leveled. Here the aim is not ranking but is leveling. Meanwhile because of high numbers of factors, screening them in both steps using Delphi and feature selection is conducted. Delphi is one of the classic tests in qualitative approaches and feature selection include data mining techniques. Finally leveling factors include technical and social factors and the most influencing ones are determined. technical factors including digital infrastructure, ICT base transportation, ICT based logistic, building alarm systems, energy consumption adjustment, ICT based process are placed in level one. Social factors including digital and smart innovation, knowledge sharing, smart education, participation in sustainable development, access to educational plans, waste recycling, pollution control, productivity and flexibility of labor market are placed in level one. پرونده مقاله
      • دسترسی آزاد مقاله

        21 - کلان داده و تاثیر آن بر دستیابی صنعت بانکداری ایران به مزیت رقابتی
        foad Kouhzadi hossin gharebiglou hossin boudaghi khaje nouber yaghoub alavi matin
        چکیدهافزایش حجم و پیچیدگی داده های دیجیتال و نقش آن بعنوان ابزاری برای پشتیبانی از کسب مزیت رقابتی برای بانک ها، نیاز به استفاده از ابزار و تکنیک های نوین در کسب ارزش داده، تحلیل و پردازش آن را افزایش داده است و در این شرایط دسترسی به جریان داده در مبادلات نوین مالی دشو چکیده کامل
        چکیدهافزایش حجم و پیچیدگی داده های دیجیتال و نقش آن بعنوان ابزاری برای پشتیبانی از کسب مزیت رقابتی برای بانک ها، نیاز به استفاده از ابزار و تکنیک های نوین در کسب ارزش داده، تحلیل و پردازش آن را افزایش داده است و در این شرایط دسترسی به جریان داده در مبادلات نوین مالی دشوارتر شده است و این امر ضرورت استفاده مدیران بانکی از راهبرد کلان داده در جهت حل چالش‌های مالی و بهره‌برداری از فرصت‌های پیش رو برای دستیابی به مزیت رقابتی پایدار دوچندان ساخته است. هدف پژوهش حاضر شناسایی اثرات راهبرد کلان داده بر دستیابی به مزیت رقابتی در صنعت بانکداری ایران است و از این رو در پژوهش حاضر تلاش شده تا مدل کلان داده با مدنظر قرار دادن مسائل اخلاقی و حریم شخصی مشتریان و تأثیرات آن‌ها در دستیابی به مزیت رقابتی در صنعت بانکداری ارائه گردد. فرضیه‌های مدل مذکور با استفاده از نظرات نمونه پژوهش، شامل مدیران عامل، مدیران و کارکنان فناوری اطلاعات و ارتباطات، مدیران و کارکنان بازاریابی 20 بانک از طریق پرسشنامه مورد ارزیابی قرارگرفته است و نتایج بدست آمده نشان از این دارد که بانک ها با بکارگیری راهبرد کلان داده به کسب مزیت رقابتی دست می‌یابند. بعلاوه، مسائل اخلاقی و حریم شخصی مشتریان بر رابطه راهبرد کلان داده با دستیابی به مزیت رقابتی تأثیر می‌گذارد. پرونده مقاله
      • دسترسی آزاد مقاله

        22 - ارزیابی و کشف تقلب در فرایند زنجیره تامین مبتن ی بر رویکرد تلفیق ی ANN-Big data
        الناز علیخانی زنجانی فرید عسگری امیر نجفی بابک حاجی کریمی
        چکیدهدر ده ههای اخیر، رقابت جهت ارائه ارزش برتر به مشتریان، از رقابت میان بنگاهها به سمت رقابت میان زنجیرههای تامین سوقپیدا کرده است. طراحی مناسب زنجیره تامین با توجه به ابعاد اقتصادی، اجتماعی و زیستمحیطی در سطوح استراتژیک،تاکتیکی و عملیاتی ضامن بقا و توسعه پایدار بنگاه چکیده کامل
        چکیدهدر ده ههای اخیر، رقابت جهت ارائه ارزش برتر به مشتریان، از رقابت میان بنگاهها به سمت رقابت میان زنجیرههای تامین سوقپیدا کرده است. طراحی مناسب زنجیره تامین با توجه به ابعاد اقتصادی، اجتماعی و زیستمحیطی در سطوح استراتژیک،تاکتیکی و عملیاتی ضامن بقا و توسعه پایدار بنگاهههای فعال در هر بخش از زنجیره تامین است. یکی از مسائل مهم در زنجیرهتامین، وجود تقلب و مخاطرات مرتبط با آنها در سرتاسر زنجیره است. همچنین با توجه به حجم پژوه شهای علمی و تجربیصورت گرفته در سالهای اخیر، مساله کشف و ارزیابی تقلب با استفاده از روشهای محاسباتی به تنهایی یک موضوع بااهمیت برا ی پژوهش م یباشد . از مه مترین چالشهای کشف و ارزیابی تقلب میتوان به د ر دسترس نبود ن مجموعههای داد هایواقعی، وجود مجموعههای داد های نامتقارن، عظیم بودن اندازه مجموعههای داد های، رفتار پویای متقلب و پراکندگی رخدادهایتقلبآمیز اشاره نمود که نتیجه این دو عدم اطمینان و ابهام در تصمیمسازی است. لذا هدف این پژوهش، ارائه مدلی جهتکشف و ارزیابی تقلب در فرایند زنجیره تامین مبتنی بر رو یکرد تلفیقی ANN-Big data میباشد. این پژوهش از نظر هدف،یک پژوهش توسعهای و کاربردی است. نخست به دلیل ا یجاد ی ک مدل جامع، با در نظر گرفتن منابع مختلف اخذ تصمیم درخصوص قانون ی یا تقلبآمیز بودن تراکنشهای کارت الکترونیک و الزامات تح لیل بزرگ داده، سعی ب ه توسعه دانشی نظری د راین حوزه دارد، این پژوهش را م یتوان از لحا ظ ماهی ت ی ک پژوهش تحلیل ی ریاضی در نظر گرفت، بر همین اساس اینپژوهش از نظر رویکرد، ی ک پژوهش کمی است . فرآیند استاندارد میا ن صنعتی داد هکاوی ی ا به اختصار CRISP DM )چپمنو همکاران 2000 (، ب هعنوان روششناسی تحلیل مورد استفاده قرار کرفته است. از مدلهای خوشهبندی و الگوریت مهای K-means ، شبکه عصبی Kohone ، کشف ناهنجاری مبتنی بر خوشهبندی، مدل مخفی مارکوف، روش پردازش موازینگاشتکاهش و مدل ه مجوشی دمپستر شیفر فازی استفاده میشود. تجزیه و تحلیل با استفاده از نرمافزارهای MATLAB و R انجامشده است. مدل پیشنهادی توانسته است از نظر خروجی و زمان اجرا ، نسبت به مدلهای دیگر عملکرد برتری را به نمایشگذارد.کلمات کلیدی: کشف و ارزیا بی تقلب ، زنجیره تامین ، ANN, Big data پرونده مقاله
      • دسترسی آزاد مقاله

        23 - سیستم تشخیص نفوذ بهبود یافته مبتنی بر الگوریتم ژنتیک خود تطبیق جزیره ای برای حل ماشین بردار پشتیبان به صورت یادگیری چندهسته ای با کد کننده های خودکار
        الهه فقیه نیا سید رضا کامل طباخ فریضنی مریم خیرآبادی
        نفوذ به سیستم‌ها از طریق زیرساخت شبکه و اینترنت یکی از چالش‌های امنیتی است که دنیای فناوری اطلاعات و ارتباطات را با آن روبرو کرده است و می‌تواند منجر به تخریب سیستم‌ها و دسترسی به داده‌ها و اطلاعات گردد. در این مقاله یک مدل ماشین بردار پشتیبان که هسته‌های آن وزن‌دار شده چکیده کامل
        نفوذ به سیستم‌ها از طریق زیرساخت شبکه و اینترنت یکی از چالش‌های امنیتی است که دنیای فناوری اطلاعات و ارتباطات را با آن روبرو کرده است و می‌تواند منجر به تخریب سیستم‌ها و دسترسی به داده‌ها و اطلاعات گردد. در این مقاله یک مدل ماشین بردار پشتیبان که هسته‌های آن وزن‌دار شده به همراه پارامترهای هسته‌های ماشین بردار پشتیبان برای سیستم تشخیص نفوذ ارائه شده است. با توجه به پیچیدگی محاسباتی این مدل، روش الگوریتم ژنتیک جزیره‌ای پویای خود تطبیقی پیشنهاد شده تا پیچیدگی محاسبات را کم نماید. در این روش از اتوانکودر نیز برای کاهش حجم داده‌ها استفاده شده است. روش پیشنهادی یک روش ترکیبی پیشنهادی مبتنی بر اتوانکودر و ماشین بردار پشتیبان بهبودیافته با الگوریتم ژنتیک جزیره‌ای پویای خود تطبیق است که دقت بهتری در مسائل تشخیص نفوذ را نشان می دهد. نتایج شبیه سازی بر روی مجموعه داده DARPA برای تست عملکرد مورد استفاده قرار گرفته است. پرونده مقاله
      • دسترسی آزاد مقاله

        24 - مروری جامع بر روش های داده محور در شبکه های هوشمند برق
        خالق بهروز دهکردی هما موحدنژاد مهدی شریفی
        امروزه شبکه برق به طور چشم گیری در حال تبدیل شدن به شبکه هوشمند (SG)، به عنوان یک چشم انداز امیدوارکننده برای برخورداری از قابلیت اطمینان بالا و مدیریت کارآمد انرژی است. این انتقال به طور پیوسته در حال تغییر است و نیازمند روش های پیشرفته برای پردازش کلان داده های تولید چکیده کامل
        امروزه شبکه برق به طور چشم گیری در حال تبدیل شدن به شبکه هوشمند (SG)، به عنوان یک چشم انداز امیدوارکننده برای برخورداری از قابلیت اطمینان بالا و مدیریت کارآمد انرژی است. این انتقال به طور پیوسته در حال تغییر است و نیازمند روش های پیشرفته برای پردازش کلان داده های تولید شده از بخش های مختلف است. روش های هوش مصنوعی می توانند از طریق استخراج اطلاعات ارزشمند که توسط دستگاه های اندازه گیری و سنسور های موجود در شبکه تولید می شوند خدمات مبتنی بر داده را ارائه نمایند. به این منظور روش های یادگیری ماشین، یادگیری عمیق، یادگیری تقویتی و یادگیری عمیق تقویتی می توانند به کار گرفته شوند. این روش ها می توانند حجم زیادی از داده های جمع آوری شده را پردازش نموده و راه حل مناسبی برای مشکلات پیچیده صنعت برق ارائه نمایند. از این رو در این مقاله آخرین رویکرد های مبتنی بر هوش مصنوعی مورد استفاده در شبکه هوشمند برق برای کاربرد ها و منابع داده به طور جامع بررسی شده است. همچنین نقش کلان داده در شبکه هوشمند برق و ویژگی های آن از جمله چرخه حیات کلان داده و رویکردهای موثر آن مانند پیشگویی، تعمیرات قابل پیش بینی و تشخیص خطا در صنعت برق بیان می شود. پرونده مقاله
      • دسترسی آزاد مقاله

        25 - مقایسه وضعیت موجود مدیریت کلان داده با وضعیت مطلوب درآینده از دیدگاه مدیران ستادی و متخصصان فناوری اطلاعات در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور
        زهرا رضایی زهره میرحسینی فرشته سپهر
        هدف: هدف پژوهش، بررسی وضعیت فعلی مدیریت کلان داده در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور و مقایسه آن با وضعیت مطلوب در آینده است. روش‌ شناسی: این پژوهش از نوع پیمایشی تحلیلی است. جامعه آماری متشکل از 77 تن از کارشناسان فناوری اطلاعات، مدیران ستاد ی چکیده کامل
        هدف: هدف پژوهش، بررسی وضعیت فعلی مدیریت کلان داده در کتابخانه های عمومی وابسته به نهاد کتابخانه های عمومی کشور و مقایسه آن با وضعیت مطلوب در آینده است. روش‌ شناسی: این پژوهش از نوع پیمایشی تحلیلی است. جامعه آماری متشکل از 77 تن از کارشناسان فناوری اطلاعات، مدیران ستاد ی و استانی و کتابداران هستند که به روش خوشه ای و نمونه گیری تصادفی ساده انتخاب شده اند. پرسشنامه ازلحاظ دو ضریب نسبی روایی محتوی (CVR) و شاخص روایی محتوی (CVI) مورد تایید قرار گرفت و پایایی پرسشنامه نیز بر اساس ضریب آلفای کرونباخ 86 %محاسبه شد. نتایج: کتابخانه های عمومی فعلی هوشمند نیستند(با میانگین 25/1) و فاقد سرعت آماده سازی وپردازش داده های موردنیاز(با میانگین 92/1)هستند . ازکلان داده های موجوددرشبکه‌های اجتماعی برای تجزیه وتحلیل تمایلات کاربران (با میانگین 22/1) استفاده نمی کنند . فقط زمینه راه اندازی وتقویت شبکه کتابخانه ها به میزان اندکی(با میانگین 08/2) فراهم است. در حالیکه کاربردکلان داده باعث دسترسی سریعتربه حجم زیادی ازداده ها (با میانگین 84/4) و افزایش کیفیت اطلاع رسانی وهدفمند شدن آن( میانگین 81/4) دروضعیت آیند می شود به شرط آنکه زیرساخت لازم جهت یکپارچه سازی اطلاعات واتصال کتابخانه ها(با میانگین 77/4) فراهم شود . نتیجه گیری: کلان داده دروضعیت فعلی به میزان بسیار اندکی در کتابخانه های عمومی کشور بکار گرفته می شود والزامات و زیر ساختهای آن نیز فراهم نیست. کلان داده ها تاثیرات مثبتی بر خدمات کتابخانه های عمومی خواهند داشت و این کتابخانه ها برای استفاده از آنها باید تمهیدات لازم را به موقع بیندیشند. پرونده مقاله
      • دسترسی آزاد مقاله

        26 - کاربرد کلان داده در کتابخانه های عمومی: تعیین ضرورت ها و عوامل تاثیرگذار
        زهره میرحسینی زهرا رضایی فرشنه عرب زاده
        هدف: هدف این مطالعه، مرور پژوهش های مرتبط با مدیریت کلان داده‌ها در کتابخانه های عمومی ، وابسته به نهاد کتابخانه های عمومی کشور و تعیین ضرورت ها و عوامل تاثیرگذار برآن است.روش ‌پژوهش: این پژوهش از نوع کیفی و با استفاده از روش دلفی انجام شده است. در قسمت توصیفی، تحقیقات چکیده کامل
        هدف: هدف این مطالعه، مرور پژوهش های مرتبط با مدیریت کلان داده‌ها در کتابخانه های عمومی ، وابسته به نهاد کتابخانه های عمومی کشور و تعیین ضرورت ها و عوامل تاثیرگذار برآن است.روش ‌پژوهش: این پژوهش از نوع کیفی و با استفاده از روش دلفی انجام شده است. در قسمت توصیفی، تحقیقات انجام گرفته در داخل و خارج از کشور مورد بررسی قرار گرفته اند و در بخش کیفی، گویه هایی طراحی شده است که در سه دور نظرات جامعه آماری پنلدلفی، متشکل از 20 نفر از متخصصان حوزه فناوری اطلاعات و علم اطلاعات و دانش شناسی جمع آوری و تحلیل شده است. 30 گویۀ پرسشنامه ازلحاظ دو ضریب نسبی روایی محتوی (CVR) و شاخص روایی محتوی (CVI) مورد تایید قرار گرفتند و پایایی پرسشنامه نیز بر اساس ضریب آلفای کرونباخ 86% محاسبه شد. یافته‌ها : یافته ها نشان داد تامین هزینه مربوط به تجهیزات وسرورهای قدرتمند، تامین ابزارهای تجزیه وتحلیل داده و روزآمد سازی دانش و مهارت های کتابداران از ضرورت های بهره گیری از کلان داده است.نتیجه گیری: آنچه از مطالعات انجام شده در مورد کاربرد کلان داده در کتابخانه ها به دست می آید آن است که کتابخانه ها در مسیر همگام سازی خود با پیشرفت های علمی و تکنولوژی با کمبود بودجه جهت تأمین منابع مورد نیاز روبرو هستند و کاستی هایی در این زمینه به چشم می خورد . پرونده مقاله
      • دسترسی آزاد مقاله

        27 - شناسایی ویژگی‌های داده درخور جهت کشف دانش از سیستم‌های کلان داده سلامت
        فاطمه سلیمانی روزبهانی علی رجب زاده قطری رضا رادفر
        هدف: هدف مطالعه حاضر ارائه و معرفی عوامل تأیید کننده مطلوبیت ویژگی‌های داده های مورد استفاده جهت کشف دانش از سیستم‌های کلان داده سلامت بوده است.روش پژوهش: پژوهش پیش رو مطالعه توصیفی-تحلیلی است. جامعه آماری متخصصان حوزه علوم داده، بیوانفورماتیک و تحلیل اطلاعات سلامت داخ چکیده کامل
        هدف: هدف مطالعه حاضر ارائه و معرفی عوامل تأیید کننده مطلوبیت ویژگی‌های داده های مورد استفاده جهت کشف دانش از سیستم‌های کلان داده سلامت بوده است.روش پژوهش: پژوهش پیش رو مطالعه توصیفی-تحلیلی است. جامعه آماری متخصصان حوزه علوم داده، بیوانفورماتیک و تحلیل اطلاعات سلامت داخل و خارج از کشور بودند که با استفاده از روش گلوله برفی 655 نفر از آنها شناسایی شده، و برای آنها ابزار پژوهش پرسشنامه محقق ساخته ارسال شد که 247 پرسشنامه را تکمیل و برگرداندند. روش استفاده شده تحلیل داده‌ها، تحلیل عاملی اکتشافی و تأییدی با استفاده از نرم‌افزارهای0/26 SPSS و 8/8 Lisrel بوده است.یافته ها: نتایج تحلیل عاملی اکتشافی، شش عامل برای شناسایی ویژگی‌های داده درخور تبیین نمود که عبارتند از کیفیت داده، پایداری داده، سازگاری داده، ارزشمندی و دسترسی پذیری داده، کارایی داده و صحت و کامل بودن و روی هم رفته 68 درصد از واریانس کل داده ها را دربرداشته است. شاخص‌های برازش تحلیل تأییدی نشان داد که الگوی شش عاملی برازش قابل قبولی با داده ها دارد.نتیجه گیری: یافته های پژوهش حاکی از آن است که بر اساس مدل ارائه شده ویژگی‌های داده بر فرایند کشف دانش از سیستم‌های کلان داده سلامت تاثیر دارد و شش عامل شناسایی شده و 20 گویه سازنده این عوامل، می‌تواند ابزار مناسبی جهت شناسایی ویژگی‌های داده های مناسب برای کشف دانش از سیستم‌های کلان داده سلامت جهت به کارگیری موثر این سیستم‌ها باشد که با تاکید بر عدم وابستگی به فرمت داده، خصایص فراگیر داده های حوزه سلامت را دربرگرفته و توجه به آن می‌تواند به تشخیص و درمان زودهنگام بیماری‌ها کمک شایانی کند. پرونده مقاله
      • دسترسی آزاد مقاله

        28 - بررسی دسترسی به کلان داده‌ها و استفاده از آنها در تصمیم گیری های زنجیره تأمین مبتنی بر مدل مالی با رویکرد تلفیقی ANN- Big data
        الناز علیخانی زنجانی فرید عسگری امیر نجفی بابک حاجی کریمی
        هدف از این مطالعه، بررسیِ رویکرد حاضر از طریق توسعه و سنجش مقیاسی جهت ارزیابی میزان در دسترس بودنِ کلان داده‌ها و همچنین نقش و عملکرد اولویت‌بندی کلان داده‌ها در تصمیم گیری‌ها می‌باشد. این تحقیق از نوع توصیفی‌ـ همبستگی می‌باشد که با استفاده از روش پیمایشی انجام گرفته اس چکیده کامل
        هدف از این مطالعه، بررسیِ رویکرد حاضر از طریق توسعه و سنجش مقیاسی جهت ارزیابی میزان در دسترس بودنِ کلان داده‌ها و همچنین نقش و عملکرد اولویت‌بندی کلان داده‌ها در تصمیم گیری‌ها می‌باشد. این تحقیق از نوع توصیفی‌ـ همبستگی می‌باشد که با استفاده از روش پیمایشی انجام گرفته است. جامعه آماری این پژوهش را مدیران و کارشناسان شرکت ایران خودرو شهر زنجان در سال 1400 تشکیل می‌دادند که تعداد آنها 108 نفر می‌باشند. برای تعیین حجم نمونه از جدول برآورد حجم نمونه کرجسی و مورگان استفاده گردید و حجم نمونه 84 نفر تخمین زده شد و برای انتخاب نمونه آماری تحقیق، از روش نمونه‌گیری تصادفی ساده استفاده شد ابزار اصلی این تحقیق پرسشنامه‌ای است که روایی آن با کسب نظرات اساتید و صاحب‌نظران در حوزه‌های مدیریت صنعتی به دست آمد. پایایی پرسشنامه از طریق ضریب آلفای کرونباخ آزمون شد و مورد تأیید قرار گرفت. ﺑﺮای ﺗﺤﻠﯿﻞ دادهﻫﺎ از ﻣﺪل‌ﯾﺎﺑﯽ ﻣﻌﺎدﻻت ﺳﺎﺧﺘﺎری ﺑﺎ ﮐﻤﮏ ﻧﺮم‌اﻓﺰار Spss و Smart-PLS اﺳﺘﻔﺎده ﺷﺪ. نتایج حاصل از این پژوهش نشان داد که قابل دسترس بودن کلان داده‌ها بر تصمیم گیری SCM و ایده پردازی کلان داده ها (BDP) تاثیر مثبت و معناداری دارد. همچنین نتایج پژوهش نشان داد که اندازه ایده پردازی کلان داده ها (BDP) با استفاده از کلان داده ها بر تصمیم گیری SCM و استفاده از کلان داده ها در تصمیم گیری SCM بر عملکرد SCM تاثیر مثبت و معنی داری دارد. پرونده مقاله
      • دسترسی آزاد مقاله

        29 - تأثیر رویکردهای آموزش سنتی و روش داده‌های بزرگ بر پیشرفت تحصیلی دانشجویان حسابداری
        محمد نمازی زهره رئیسی
        چکیدههدف پژوهش حاضر بررسی تأثیر روش‌های مختلف آموزش بر پیشرفت تحصیلی دانشجویان حسابداری است تا مؤثرترین شیوه آموزش به گونه تجربی مشخص گردد و بتوان بدان وسیله پیشرفت تحصیلی را در بین دانشجویان حسابداری بهبود بخشید. در این راستا با بکارگیری رویکرد سنتی و نیز رویکردهای نوی چکیده کامل
        چکیدههدف پژوهش حاضر بررسی تأثیر روش‌های مختلف آموزش بر پیشرفت تحصیلی دانشجویان حسابداری است تا مؤثرترین شیوه آموزش به گونه تجربی مشخص گردد و بتوان بدان وسیله پیشرفت تحصیلی را در بین دانشجویان حسابداری بهبود بخشید. در این راستا با بکارگیری رویکرد سنتی و نیز رویکردهای نوین آموزشی شامل رویکرد داده‌های بزرگ، اثر آن‌ها بر پیشرفت تحصیلی دانشجویان مورد بررسی قرار گرفت. جامعه این پژوهش شامل کلیه دانشجویان رشته حسابداری است که در مقطع کارشناسی دانشگاه آزاد اسلامی‌شیراز مشغول به تحصیل بوده‌اند و نمونه مورد مطالعه 247 نفر می‌باشد. با استفاده از روش آزمایشگاهی و طرح پیش آزمون-پس آزمون، دو گروه آزمایش با رویکردهای سنتی و داده‌های بزرگ در کارگاه‌های حسابداری پیشرفته 2، حسابداری صنعتی 2 و حسابرسی 1 شرکت کردند. تحلیل داده‌ها، با استفاده از الگوی معادلات ساختاری، آزمون ناپارامتری من ویتنی و رگرسیون سلسله مراتبی انجام شد. یافته های پژوهش نشان داد که هر دو روش آموزش به شیوه داده های بزرگ و آموزش به شیوه سنتی بر پیشرفت تحصیلی دانشجویان تأثیر مثبت معناداری دارند. همچنین، یافته ها نشان داد که تأثیر آموزش به شیوه داده های بزرگ بر پیشرفت تحصیلی دانشجویان حسابداری در مقایسه با آموزش به شیوه سنتی بیشتر است. نتایج پژوهش بر ضرورت آموزش به شیوه داده‌های بزرگ در برنامه آموزشی حسابداری در مقطع کارشناسی برای افزایش دانش دانشجویان تأکید می‌کند پرونده مقاله
      • دسترسی آزاد مقاله

        30 - Application of Big Data Analytics in Power Distribution Network
        Foroogh Sedighi Mohammadreza Jabbarpour Sheyda Seyedfarshi
        Smart grid enhances optimization in generation, distribution and consumption of the electricity by integrating information and communication technologies into the grid. Today, utilities are moving towards smart grid applications, most common one being deployment of smar چکیده کامل
        Smart grid enhances optimization in generation, distribution and consumption of the electricity by integrating information and communication technologies into the grid. Today, utilities are moving towards smart grid applications, most common one being deployment of smart meters in advanced metering infrastructure, and the first technical challenge they face is the huge volume of data generated from variety of smart devices including the meters. This data is beneficial for both customers and utilities, but only if the capability of using it and extracting knowledge and hidden patterns from data is exploited. In this article, a brief overview of data sources along with applications of big data analytics in power distribution networks and related analytical data models are presented. At the end, big data management tools and techniques applicable in power distribution networks are introduced. پرونده مقاله
      • دسترسی آزاد مقاله

        31 - تحلیل خوشه‌های موضوعی و ترسیم نقشه علمی پژوهش‌های حوزه کلان داده و آموزش آنلاین پایگاه علمی اسکوپوس
        مهدی علیرضانژاد سهیل دادفر
        توسعه کلان داده در سال های اخیر، موجب تولید علم قابل توجهی در این خصوص در پایگاه های استنادی معتبر بین المللی شده است. هدف مطالعه حاضر تحلیل خوشه های موضوعی و ترسیم نقشه علمی پژوهش های منتشر شده جهت شناسایی وضعیت موجود تحقیقات حوزه کلان داده و آموزش آنلاین در اسکوپوس اس چکیده کامل
        توسعه کلان داده در سال های اخیر، موجب تولید علم قابل توجهی در این خصوص در پایگاه های استنادی معتبر بین المللی شده است. هدف مطالعه حاضر تحلیل خوشه های موضوعی و ترسیم نقشه علمی پژوهش های منتشر شده جهت شناسایی وضعیت موجود تحقیقات حوزه کلان داده و آموزش آنلاین در اسکوپوس است. پژوهش حاضر یک مطالعه کمی و کاربردی بود و از روش های علم سنجی شامل تحلیل هم واژگانی و تحلیل شبکه استفاده شد. جامعه پژوهش، کلیه اسنادی بود که در حوزه کلان داده و آموزش آنلاین در پایگاه استنادی اسکوپوس منتشر شده بودند که بررسی و تحلیل شدند. به منظور تجزیه و تحلیل داده ها از نرم افزار Vosviewer استفاده شد. یافته‌ های علم سنجی نشان داد که تا تاریخ 25 نوامبر 2023 کشور های چین (700 سند)، ایالات متحده امریکا (240 سند) و هند (110 سند) به ترتیب بیشترین اسناد علمی را در حوزه کلان داده و آموزش در پایگاه اسکوپوس داشتند. ایران با تنها 8 سند منتشر شده، در پایین‌ ترین سطح این رتبه بندی قرار داشت. همچنین نتایج نشان داد خوشه‌ های کلان داده، آموزش، آموزش آنلاین (برخط) ، تدریس، سیستم های یادگیری، هوش مصنوعی، داده کاوی، یاد گیری ماشین از مهم ترین خوشه های حوزه کلان داده و آموزش بودند. در نهایت اینکه، با توجه به اینکه ایران دارای کم ترین اسناد منتشر شده در حوزه کلان داده و آموزش بود، ضروری است محققان به تعیین نیازمندی‌ های پژوهشی بپردازند و بر این اساس به توسعه دانش حوزه کلان داده و آموزش کمک نمایند. پرونده مقاله