간행물

(사)한국빅데이터학회> 한국빅데이터학회지

한국빅데이터학회지 update

The Korean Journal of BigData

  • : (사)한국빅데이터학회
  • : 공학분야  >  산업공학
  • : KCI후보
  • :
  • : 연속간행물
  • : 반년간
  • : 2508-1829
  • :
  • :

수록정보
수록범위 : 1권1호(2016)~4권2호(2019) |수록논문 수 : 92
한국빅데이터학회지
4권2호(2019년 12월) 수록논문
최근 권호 논문
| | | |

KCI후보

1데이터 증강을 통한 딥러닝 기반 주가 패턴 예측 정확도 향상 방안

저자 : 김영준 ( Youngjun Kim ) , 김여정 ( Yeojeong Kim ) , 이인선 ( Insun Lee ) , 이홍주 ( Hong Joo Lee )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 1-12 (12 pages)

다운로드

(기관인증 필요)

초록보기

인공지능 기술이 발전하면서 이미지, 음성, 텍스트 등 다양한 분야에 적용되고 있으며, 데이터가 충분한 경우 기존 기법들에 비해 좋은 결과를 보인다. 주식시장은 경제, 정치와 같은 많은 변수에 의해 영향을 받기 때문에, 주식 가격의 움직임 예측은 어려운 과제로 알려져 있다. 다양한 기계학습 기법과 인공지능 기법을 이용하여 주가 패턴을 연구하여 주가의 등락을 예측하려는 시도가 있어왔다. 본 연구는 딥러닝 기법 중 컨볼루셔널 뉴럴 네트워크(CNN)를 기반으로 주가 패턴 예측률 향상을 위한 데이터 증강 방안을 제안한다. CNN은 컨볼루셔널 계층을 통해 이미지에서 특징을 추출하여 뉴럴 네트워크를 이용하여 이미지를 분류한다. 따라서, 본 연구는 주식 데이터를 캔들스틱 차트 이미지로 만들어 CNN을 통해 패턴을 예측하고 분류하고자 한다. 딥러닝은 다량의 데이터가 필요하기에, 주식 차트 이미지에 다양한 데이터 증강(Data Augmentation) 방안을 적용하여 분류 정확도를 향상 시키는 방법을 제안한다. 데이터 증강 방안으로는 차트를 랜덤하게 변경하는 방안과 차트에 가우시안 노이즈를 적용하여 추가 데이터를 생성하였으며, 추가생성된 데이터를 활용하여 학습하고 테스트 집합에 대한 분류 정확도를 비교하였다. 랜덤하게 차트를 변경하여 데이터를 증강시킨 경우의 분류 정확도는 79.92%였고, 가우시안 노이즈를 적용하여 생성된 데이터를 가지고 학습한 경우의 분류 정확도는 80.98%이었다. 주가의 다음날 상승/하락으로 분류하는 경우에는 60분 단위캔들 차트가 82.60%의 정확도를 기록하였다.


As Artificial Intelligence (AI) technology develops, it is applied to various fields such as image, voice, and text. AI has shown fine results in certain areas. Researchers have tried to predict the stock market by utilizing artificial intelligence as well. Predicting the stock market is known as one of the difficult problems since the stock market is affected by various factors such as economy and politics. In the field of AI, there are attempts to predict the ups and downs of stock price by studying stock price patterns using various machine learning techniques. This study suggest a way of predicting stock price patterns based on the Convolutional Neural Network(CNN) among machine learning techniques. CNN uses neural networks to classify images by extracting features from images through convolutional layers. Therefore, this study tries to classify candlestick images made by stock data in order to predict patterns. This study has two objectives. The first one referred as Case 1 is to predict the patterns with the images made by the same-day stock price data. The second one referred as Case 2 is to predict the next day stock price patterns with the images produced by the daily stock price data. In Case 1, data augmentation methods - random modification and Gaussian noise - are applied to generate more training data, and the generated images are put into the model to fit. Given that deep learning requires a large amount of data, this study suggests a method of data augmentation for candlestick images. Also, this study compares the accuracies of the images with Gaussian noise and different classification problems. All data in this study is collected through OpenAPI provided by DaiShin Securities. Case 1 has five different labels depending on patterns. The patterns are up with up closing, up with down closing, down with up closing, down with down closing, and staying. The images in Case 1 are created by removing the last candle(-1candle), the last two candles(- 2candles), and the last three candles(-3candles) from 60 minutes, 30 minutes, 10 minutes, and 5 minutes candle charts. 60 minutes candle chart means one candle in the image has 60 minutes of information containing an open price, high price, low price, close price. Case 2 has two labels that are up and down. This study for Case 2 has generated for 60 minutes, 30 minutes, 10 minutes, and 5minutes candle charts without removing any candle.
Considering the stock data, moving the candles in the images is suggested, instead of existing data augmentation techniques. How much the candles are moved is defined as the modified value. The average difference of closing prices between candles was 0.0029. Therefore, in this study, 0.003, 0.002, 0.001, 0.00025 are used for the modified value. The number of images was doubled after data augmentation. When it comes to Gaussian Noise, the mean value was 0, and the value of variance was 0.01. For both Case 1 and Case 2, the model is based on VGG-Net16 that has 16 layers.
As a result, 10 minutes -1candle showed the best accuracy among 60 minutes, 30 minutes, 10 minutes, 5minutes candle charts. Thus, 10 minutes images were utilized for the rest of the experiment in Case 1. The three candles removed from the images were selected for data augmentation and application of Gaussian noise. 10 minutes -3candle resulted in 79.72% accuracy. The accuracy of the images with 0.00025 modified value and 100% changed candles was 79.92%. Applying Gaussian noise helped the accuracy to be 80.98%. According to the outcomes of Case 2, 60minutes candle charts could predict patterns of tomorrow by 82.60%.
To sum up, this study is expected to contribute to further studies on the prediction of stock price patterns using images. This research provides a possible method for data augmentation of stock data.

KCI후보

2CDR 자료를 이용한 고병원성 조류인플루엔자 분석

저자 : 최대우 ( Dae-woo Choi ) , 주재윤 ( Jae-yun Joo ) , 송유한 ( Yu-han Song ) , 한예지 ( Ye-ji Han )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 13-22 (10 pages)

다운로드

(기관인증 필요)

초록보기

이 연구는 2018년도 정부(농림축산식품부)의 재원으로 농림식품기술기획평가원 지원을 받아 수행된 연구이다. 고병원성 조류인플루엔자의 유입은 해외로부터 철새를 통해 유입되고 있으나 어떤 경로를 통해 감염 원인을 농장에 제공하는지 정확히 밝혀진 바 없다. 그리고 발생 농장으로부터 농장 간의 전이도 차량이 주 원인이라고 추정할 뿐, 전파 주 원인이 정확히 밝혀진 것은 아니다.
본 논문 연구에서는 KT가 제공하는 CDR(Call Detailed Record) 데이터를 기반으로, 발생후보지로 추정되는 철새도래지를 방문한 사람이 어떤 경로를 거쳐 감염 농장으로 유입이 되는지 해당 시기의 인구 흐름을 보려고 한다.


This study was conducted with funding from the government (Ministry of Agriculture, Food and Rural Affairs) in 2018 with support from the Agricultural, Food, and Rural Affairs Agency, 318069-03-HD040, and is based on artificial intelligence-based HPAI spread analysis and patterning. The inflow of highly pathogenic avian influenza is coming through migratory birds from abroad, but it is not known exactly what pathways provide the farm with the cause of the infection. And the transition between farms from the generated farms only assumes that the vehicle is the main cause, and the main cause of the spread is not exactly known.
Based on the call detailed records (CDR) data provided by KT, the study aims to see how people visiting migratory bird-watching sites, presumed to be the site of the outbreak, will flow through infected farms.

KCI후보

3소셜데이터 분석 및 인공지능 알고리즘 기반 범죄 수사 기법 연구

저자 : 안동욱 ( Dong-uk An ) , 임춘성 ( Choon Seong Leem )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 23-34 (12 pages)

다운로드

(기관인증 필요)

초록보기

최근 디지털 플랫폼을 활용한 민생 위협 범죄는 `15년 약 14만여 건, '16년 약 15만여 건 등 사이버범죄 지속 증가 추이이며 전통적인 수사기법을 통한 온라인 범죄 대응에 한계가 있다고 판단되고 있다. 현행수기 온라인 검색 및 인지 수사 방식만으로는 빠르게 변화하는 민생 위협 범죄에 능동적으로 대처 할 수 없으며, 소셜 미디어 특성상 불특정 다수에게 게시되는 콘텐츠로 이루어 졌다는 점에서 더욱 어려움을 겪고 있다. 본 연구는 민생 침해 범죄가 발생하는 온라인 미디어의 특성을 고려한 콘텐츠 웹 수집 방식중 사이트 중심의 수집과 Open API를 통한 방식을 제시한다. 또한 불법콘텐츠의 특성상 신속히 게시되고 삭제되며 신조어, 변조어 등이 다양하고 빠르게 생성되기 때문에 수작업 등록을 통한 사전 기반 형태소 분석으로는 빠른 인지가 어려운 상황이다. 이를 해소 하고자 온라인에서 벌어지는 민생 침해 범죄를 게시하는 불법 콘텐츠를 빠르게 인지하고 대응하기 위한 데이터 전처리인 WPM(Word Piece Model)을 통하여 기존의 사전 기반의 형태소 분석에서 토크나이징 방식을 제시한다. 데이터의 분석은 불법 콘텐츠의 수사를 위한 지도학습 기반의 분류 알고리즘 모델을 활용, 투표 기반(Voting) 앙상블 메소드를 통하여 최적의 정확도를 검증하고 있다.
본 연구에서는 민생경제를 침해하는 범죄를 사전에 인지하기 위하여 불법 다단계에 대한 사례를 중심으로 분류 알고리즘 모델을 활용하고, 소셜 데이터의 수집과 콘텐츠 수사에 대하여 효과적으로 대응하기 위한 실증 연구를 제시하고 있다.


Recently, the crime that utilizes the digital platform is continuously increasing. About 140,000 cases occurred in 2015 and about 150,000 cases occurred in 2016. Therefore, it is considered that there is a limit handling those online crimes by old-fashioned investigation techniques. Investigators' manual online search and cognitive investigation methods those are broadly used today are not enough to proactively cope with rapid changing civil crimes. In addition, the characteristics of the content that is posted to unspecified users of social media makes investigations more difficult. This study suggests the site-based collection and the Open API among the content web collection methods considering the characteristics of the online media where the infringement crimes occur. Since illegal content is published and deleted quickly, and new words and alterations are generated quickly and variously, it is difficult to recognize them quickly by dictionary-based morphological analysis registered manually. In order to solve this problem, we propose a tokenizing method in the existing dictionary-based morphological analysis through WPM (Word Piece Model), which is a data preprocessing method for quick recognizing and responding to illegal contents posting online infringement crimes. In the analysis of data, the optimal precision is verified through the Vote-based ensemble method by utilizing a classification learning model based on supervised learning for the investigation of illegal contents. This study utilizes a sorting algorithm model centering on illegal multilevel business cases to proactively recognize crimes invading the public economy, and presents an empirical study to effectively deal with social data collection and content investigation.

KCI후보

4양방향 장단기 메모리 신경망을 이용한 욕설 검출

저자 : 나인섭 ( In-seop Na ) , 이신우 ( Sin-woo Lee ) , 이재학 ( Jae-hak Lee ) , 고진광 ( Jin-gwang Koh )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 35-45 (11 pages)

다운로드

(기관인증 필요)

초록보기

욕설과 비속어를 포함한 악성 댓글에 대한 피해는 최근 언론에 나오는 연애인의 자살뿐만 아니라 사회전반에서 다양한 형태로 증가하고 있다. 이 논문에서는 양방향 장단기 메모리 신경망 모델을 이용하여 욕설을 검출하는 기법을 제시하였다. 웹 크룰러를 통해 웹상의 댓글을 수집하고, 영어나 특수문자 등의 사용하지 않은 글에 대해 불용어 처리를 하였다. 불용어 처리된 댓글에 대해 문장의 전·후 관계를 고려한 양방향 장단기 메모리 신경망 모델을 적용하여 욕설 여부를 판단하고 검출하였다. 양방향 장단기 메모리 신경망을 사용하기 위해 검출된 댓글에 대해 형태소 분석과 벡터화 과정을 거쳤으며 각 단어들에 욕설 해당 여부를 라벨링하여 진행하였다. 실험 결과 정제하고 수집된 총 9,288개의 댓글에 대해 88.79%의 성능을 나타내었다.


Recently, the damage with social cost of malicious comments is increasing. In addition to the news of talent committing suicide through the effects of malicious comments. The damage to malicious comments including abusive language and slang is increasing and spreading in various type and forms throughout society. In this paper, we propose a technique for detecting abusive language using a bi-directional long short-term memory neural network model. We collected com­ments on the web through the web crawler and processed the stopwords on unused words such as English Alphabet or special characters. For the stopwords processed comments, the bidirectional long short-term memory neural network model considering the front word and back word of sentences was used to determine and detect abusive language. In order to use the bi-directional long short-term memory neural network, the detected comments were subjected to morphological analysis and vectorization, and each word was labeled with abusive language. Experimental results showed a performance of 88.79% for a total of 9,288 comments screened and collected.

KCI후보

5금융회사 RPA(로봇자동화) 관련 규제 연구

저자 : 한택룡 ( Taek-ryong Han ) , 이경호 ( Kyung-ho Lee )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 47-59 (13 pages)

다운로드

(기관인증 필요)

초록보기

최근 국내외에서 확산되고 있는 RPA(Robotic Process Automation) 솔루션은 사용자가 응용프로그램의 GUI(Graphic User Interface)에서 대상 업무를 간편하게 자동화 할 수 있어 국내 다수 금융회사에서도 동 솔루션을 적용하는 사례가 지속적으로 증가하고 있다. 하지만 금융기관이 반드시 준수해야 하는 주요 감독규제들은 기존 전통적인 SDLC(Software Development Life Cycle)를 기반으로 하고 있어 일반 사용자의 시스템 Interface 환경 단에서 자동화하는 RPA에 그대로 적용되기에는 어려움이 있었다. 이에 본 논문에서는 금융회사가 RPA를 도입함에 있어 고려되어야 하는 주요 감독규정들과 통제항목들을 정리하고 RPA를 도입한 24개 금융회사의 통제 적용현황을 조사하여 향후 관련 컴플라이언스의 개정 필요성을 제시해보고자 한다.


Recently, the RPA (Robotic Process Automation) solution, which has been spreading in Korea and overseas, allows users to easily automate their tasks with the application GUI (Graphic User Interface), and the number of Korean financial companies which Implemented for automating their business is increasing now. However, as the major supervisory regulations that financial institutions must comply with are based on the existing traditional SDLC (Software Development Life Cycle), it is not proper to be directly applied to RPA that automates end-user works on the level of user's system interface. Therefore, in this paper, we organized the important financial supervisory rules and control items that should be considered for RPA implementation, then surveyed 24 financial companies which have implemented RPA for checking how they applied them. Finally, we would like to present the necessity of revision of related compliance.

KCI후보

6머신러닝을 이용한 반도체 웨이퍼 평탄화 공정품질 예측 및 해석 모형 개발

저자 : 안정언 ( Jeong-eon Ahn ) , 정재윤 ( Jae-yoon Jung )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 61-71 (11 pages)

다운로드

(기관인증 필요)

초록보기

반도체 웨이퍼의 표면을 연마하여 평탄화하는 Chemical Mechanical Planarization(CMP) 공정은 다양한 화학물질과 물리적인 기계장치에 의한 작용을 받기 때문에 공정을 안정적으로 관리하기 힘들다. CMP 공정에서 품질 지표로는 Material Removal Rate(MRR)를 많이 사용하고, CMP 공정의 안정적 관리를 위해서는 MRR을 예측하는 것이 중요하다. 본 연구에서는 머신러닝 기법들을 이용하여 CMP 공정에서 수집된 시계열 센서 데이터를 분석하여 MRR을 예측하는 모형과 공정 품질을 해석하기 위한 분류 모형을 개발한다. 나아가 분류 결과를 분석하여, CMP 공정 품질에 영향을 미치는 유의미한 변수를 파악하고 고품질을 유지하기 위한 공정 조건을 설명한다.


Chemical Mechanical Planarization (CMP) process that planarizes semiconductor wafer's surface by polishing is difficult to manage reliably since it is under various chemicals and physical machinery. In CMP process, Material Removal Rate (MRR) is often used for a quality indicator, and it is important to predict MRR in managing CMP process stably. In this study, we introduce prediction models using machine learning techniques of analyzing time-series sensor data collected in CMP process, and the classification models that are used to interpret process quality conditions. In addition, we find meaningful variables affecting process quality and explain process variables' conditions to keep process quality high by analyzing classification result.

KCI후보

7워게임 시뮬레이션 환경에 맞는 빅데이터 분석을 위한 분산처리기술

저자 : 배민수 ( Minsu Bae )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 73-83 (11 pages)

다운로드

(기관인증 필요)

초록보기

4차 산업혁명의 기술 등장 이후 대규모 데이터 시대에서 새로운 가치 창출을 위한 데이터 정보 분석은 다양한 분야에서 시도되고 있다. 대용량 데이터를 빠르게 처리하는데 있어서 분산 데이터 처리는 이미 필수적이다. 하지만 아직 국방 분야에서 운용하고 있는 시뮬레이션들은 쌓여 있는 비정형 데이터를 활용할 수 있는 시스템이 미비하다. 이에 본 연구에서는 훈련간 발생하는 문제에 대응하기 위한 지휘결심에 가시화된 데이터를 제공하기 위해서 대대급 규모의 시뮬레이션 모델에 적용 가능한 분산 처리 플랫폼을 제안한다. 전략게임 데이터 50만개를 분석하는 과정으로, 데이터가 가지고 있는 여러 요인들 중 승리요인에 영향을 미치는 요소들을 분석할 수 있게 구현하였다. 결과적으로 상위 10%에 있는 팀들의 데이터를 분석하는 과정에서의 분산처리 사용한 결과를 측정 및 비교 하였다.


Since the emergence of the fourth industrial revolution, data analysis is being conducted in various fields. Distributed data processing has already become essential for the fast processing of large amounts of data. However, in the defense sector, simulation used cannot fully utilize the unstructured data which are prevailing at real environments. In this study, we propose a distributed data processing platform that can be applied to battalion level simulation models to provide visualized data for command decisions during training. 500,000 data points of strategic game were analyzed. Considering the winning factors in the data, variance processing was conducted to analyze the data for the top 10% teams. With the increase in the number of nodes, the model becomes scalable.

KCI후보

8빅데이터 분석을 통한 기온 변화에 따른 상품의 판매량 분석

저자 : 홍준기 ( Jun-ki Hong )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 85-91 (7 pages)

다운로드

(기관인증 필요)

초록보기

언제 어디서나 사용 가능한 스마트기기를 통한 온라인 쇼핑이 보편화되어 소비자들은 손쉽게 패션 관련상품을 구입할 수 있다. 따라서 소비자들은 패션 관련 상품을 구매할 때 날씨, 판매 가격과 같은 다양한 환경 변수에 반응하여 상품을 구매한다. 따라서 효율적인 재고 관리를 위해 판매된 상품들의 빅데이터를 활용하는 것이 패션 산업에서 매우 중요하다. 본 논문에서는 국내 패션 회사 'A'의 실제 상품 판매 빅데이터를 활용하여 제안한 빅데이터 분석 알고리즘을 통해 기온 변화에 따른 패션 상품의 판매량 변화를 분석하였다. 분석 결과에 따르면, 제안한 빅데이터 분석 알고리즘을 통해 예상할 수 있는 판매량 결과와 예상하지 못한 판매량 결과를 얻었다.


Since online shopping has become common, people can easily buy fashion goods anytime, anywhere. Therefore, consumers quickly respond to various environmental variables such as weather and sales prices. Thus, utilizing big data for efficient inventory management has become very important in the fashion industry. In this paper, the changes in sales volume of fashion goods due to changes in temperature is analyzed via the proposed big data analysis algorithm by utilizing actual big data from Korean fashion company 'B'. According to the analytic results, the proposed big data analysis algorithm found both expected and unexpected changes in sales volume depending on the characteristics of the fashion goods.

KCI후보

9수산과학 빅데이터 플랫폼 구축과 메타 데이터 관리방안

저자 : 김재성 ( Jae-sung Kim ) , 최영진 ( Youngjin Choi ) , 한명수 ( Myeong-soo Han ) , 황재동 ( Jae-dong Hwang ) , 조완섭 ( Wan-sup Cho )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 93-103 (11 pages)

다운로드

(기관인증 필요)

초록보기

본 논문에서는 수산과학 R&D 정보의 빅데이터 플랫폼 구축과 메타 데이터 관리기법에 관해 소개한다. 빅데이터 플랫폼에서는 다양한 유형의 수산과학 R&D 정보를 수집하여 통합 연계하고, 이를 데이터 레이크 형태로 구축하는 방안을 제시한다. 수산과학 분야에서 수집, 축적되고 있는 기존의 데이터와 함께 위성영상 데이터, 연구보고서 등 비정형 빅데이터까지 수집하여 다양한 분석을 지원하는 빅데이터 플랫폼의 구축방안을 제시한다. 다음으로 데이터 추출과 전처리 및 저장 과정에서 메타 데이터를 수집하고 관리함으로써 수산과학 빅데이터의 체계적인 관리가 가능하도록 한다. 빅데이터 플랫폼 구축과 함께 메타 데이터를 표준양식으로 구축함으로써 데이터의 수집, 저장, 활용 및 유통 등 데이터 수명주기 전반에 걸쳐 체계적이고도 지속적인 빅데이터 관리 방안을 제시하는데 의의가 있다.


In this paper, we introduce a big data platform and a metadata management technique for fishery science R & D information. The big data platform collects and integrates various types of fisheries science R & D information and suggests how to build it in the form of a data lake. In addition to existing data collected and accumulated in the field of fisheries science, we also propose to build a big data platform that supports diverse analysis by collecting unstructured big data such as satellite image data, research reports, and research data. Next, by collecting and managing metadata during data extraction, preprocessing and storage, systematic management of fisheries science big data is possible. By establishing metadata in a standard form along with the construction of a big data platform, it is meaningful to suggest a systematic and continuous big data management method throughout the data lifecycle such as data collection, storage, utilization and distribution.

KCI후보

10미세먼지 자료에서의 결측치 대체 방법 비교

저자 : 김연진 ( Yeonjin Kim ) , 박헌진 ( Park Heonjin )

발행기관 : (사)한국빅데이터학회 간행물 : 한국빅데이터학회지 4권 2호 발행 연도 : 2019 페이지 : pp. 105-114 (10 pages)

다운로드

(기관인증 필요)

초록보기

자료 분석에 있어서 결측치 대체는 큰 이슈중 하나이다. 결측치의 발생을 무시하고 분석을 진행하게 되면, bias가 발생하여 그에 따른 추정치에 대해 잘못된 결과를 줄 수 있다. 이 논문에서는 미세먼지자료에서 발생한 결측치를 적절한 대체 방법을 찾아 적용하자 한다. 이를 통해 시계열 자료에서 발생한 결측치를 R을 기반으로 한MICE, MissForest 등의 기존 방법과 시계열 기반 모델을 사용하여 여러 가지 상황에 대한 시뮬레이션을 설정해 비교해 밝히고자 하였다. 이 결과에 대해 각각을 변수 별로 비교하였을때 ImputeTS 패키지를 이용한 auto arima 모델의 kalman filter를 적용한 모형과 MissForest 모형이 미세먼지자료 결측치 대체에서는 좋은 결과를 주는 것으로 판단되었다.


Missing value replacement is one of the big issues in data analysis. If you ignore the occurrence of the missing value and proceed with the analysis, a bias can occur and give incorrect results for the estimate. In this paper, we need to find and apply an appropriate alternative to missing data from weather data. Through this, we attempted to clarify and compare the simulations for various situations using existing methods such as MICE and MissForest based on R and time series-based models. When comparing these results with each variable, it was determined that the kalman filter of the auto arima model using the ImputeTS package and the MissForest model gave good results in the weather data.

12
권호별 보기
가장 많이 인용된 논문

(자료제공: 네이버학술정보)

가장 많이 인용된 논문
| | | |
1연안해역에서 석유오염물질의 세균학적 분해에 관한 연구

(2006)홍길동 외 1명심리학41회 피인용

다운로드

2미국의 비트코인 규제

(2006)홍길동심리학41회 피인용

다운로드

가장 많이 참고한 논문

(자료제공: 네이버학술정보)

가장 많이 참고한 논문

다운로드

2미국의 비트코인 규제

(2006)홍길동41회 피인용

다운로드

해당 간행물 관심 구독기관

울산대학교 연세대학교 고려대학교 숭실대학교 공군사관학교
 80
 39
 19
 16
 15
  • 1 울산대학교 (80건)
  • 2 연세대학교 (39건)
  • 3 고려대학교 (19건)
  • 4 숭실대학교 (16건)
  • 5 공군사관학교 (15건)
  • 6 경희대학교 (14건)
  • 7 한국외국어대학교 (14건)
  • 8 동국대학교 (13건)
  • 9 성균관대학교 (10건)
  • 10 한양대학교 (9건)

내가 찾은 최근 검색어

최근 열람 자료

맞춤 논문

보관함

내 보관함
공유한 보관함

1:1문의

닫기