간행물

한국인터넷정보학회> 인터넷정보학회논문지

인터넷정보학회논문지 update

Journal of Internet Computing and Services (JICS)

  • : 한국인터넷정보학회
  • : 공학분야  >  기타(공학)
  • : KCI등재
  • :
  • : 연속간행물
  • : 격월
  • : 1598-0170
  • : 2287-1136
  • :

수록정보
수록범위 : 1권1호(2000)~20권3호(2019) |수록논문 수 : 1,447
인터넷정보학회논문지
20권3호(2019년 06월) 수록논문
최근 권호 논문
| | | |

KCI등재

1SysML을 이용한 STPA 기반의 위험원 분석 프로세스

저자 : 최나연 ( Na-yeon Choi ) , 이병걸 ( Byong-gul Lee )

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 1-11 (11 pages)

다운로드

(기관인증 필요)

초록보기

자동차, 원자력, 철도, 항공 등의 분야에서 발생하는 소프트웨어의 고장이나 사고는 바로 큰 재산 피해나 인명 피해로 연결될 수 있다. 이에 체계적이고도 효과적인 안전품질 관리의 필요성이 커지고 있으며, 최근 관련 산업 분야에서는 IEC 61508을 기반으로 안전국제 표준이 제정되어 산업에 적용되고 있다. 국제 표준에서 명시하고 있는 안전 생명주기에 따르면 소프트웨어 안전성 품질을 확보하기 위해서는 개발 초기 단계에서 위험원 및 위험 분석(Hazard and risk analysis)을 통한 안전 요구사항을 개발하도록 권고하고 있다. 본 논문에서는 소프트웨어의 안전성 요구사항의 식별 및 정의를 위해 SysML을 활용한 STPA 기반의 위험원 분석 프로세스를 제안한다. 세부적으로는 SysML의 BDD과 IBD 다이어그램을 활용하여 기존 STPA 분석에서 활용되고 있는 제어구조도를 보다 명확하게 정의할 수 있도록 개선하였고, SD 다이어그램을 활용하여 안전 제약사항(요구사항)을 상세화할 수 있도록 하였다. 제안 방법의 적용 결과, STPA에서 누락되었던 위험원을 추가적으로 식별할 수 있었고, 위험원의 발생 시나리오도 상세하게 구체화할 수 있었다.


Today's software systems are becoming larger and more complicated, and the risk of accidents and failures have also grown larger. Software failures and accidents in industrial fields such as automobiles, nuclear power plants, railroad industries, etc. may lead to severe damage of property and human life. The safety-related international standards, such as IEC 61508 have been established and applied to industries for decades. The safety life cycle specified in the standards emphasize the activities to develop safety requirements through hazard and risk analysis in the early stage of software development. In this paper, we propose 'Hazard Analysis Process based on STPA using SysML' in order to ensure the safety of software at the early stage of software development. The proposed hazard analysis can be effectively performed minimizing the loss of hazard by using the BDD and the IBD of SysML to define the control structure of a system. The proposed method also improves the specification of the safety constraints(requirement) by using SD. As a result, it is possible to identify the hazard without missing and identify the hazard scenarios in detail, and safety can be sufficiently ensured in the early stage of software development.

KCI등재

25G 무선 네트워크 효율성 향상을 위한 Full Duplex NOMA Relay 최소 전송전력 시스템

저자 : 김규하 ( Kyuha Kim ) , 유원석 ( Wonsuk Yoo ) , 정종문 ( Jong-moon Chung )

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 13-24 (12 pages)

다운로드

(기관인증 필요)

초록보기

5G 네트워크의 기술 중 NOMA의 핵심은 각 노드별 파워할당계수를 할당하는 것이다. 본 연구에서는 Full Duplex NOMA 릴레이 시스템을 대상으로 성공적인 디코딩을 위한 수신단 최소 필요 신호 대 잡음비 분석을 통해 NOMA 기술의 핵심인 Uplink/Downlink 파워할당계수를 산출하는 알고리즘을 구현하였다. 이를 통해 제안된 알고리즘과 기존 파워 할당 방식과의 성능비교를 실시하였으며 에르고딕 처리용량 및 전송실패율에 관하여 우수한 성능을 확인하였다.


The key concept of NOMA among 5G network technologies is to set the power allocation coefficient for each node. In this study, we implemented the algorithm that calculates the uplink/downlink power allocation coefficients which is the key concept of NOMA technology through analysis of minimum SNR required for successful decoding at the receiver, based on Full Duplex NOMA relay system. The performance comparison between the proposed algorithm and the existing power allocation methods is performed and the performance is confirmed in terms of ergodic sum capacity and outage probability.

KCI등재

3Improving the speed of the Lizard implementation

저자 : Shakhriddin Rustamov , Younho Lee

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 25-31 (7 pages)

다운로드

(기관인증 필요)

초록보기

Along with the recent advances in quantum computers, it is anticipated that cryptographic attacks using them will make it insecure to use existing public key algorithms such as RSA and ECC. Currently, a lot of researches are underway to replace them by devising PQC (Post Quantum Cryptography) schemes. In this paper, we propose a performance enhancement method for Lizard implementation which is one of NIST PQC standardization submission. The proposed method is able to improve the performance by 7 ~ 25% for its algorithms compared to the implementation in the submission through the techniques of various implementation aspects. This study hopes that Lizard will become more competitive as a candidate for PQC standardization.

KCI등재

4공간 클래스 단순화를 이용한 의미론적 실내 영상 분할

저자 : 김정환 ( Jung-hwan Kim ) , 최형일 ( Hyung-il Choi )

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 33-41 (9 pages)

다운로드

(기관인증 필요)

초록보기

본 논문에서는 실내 공간 이미지의 의미론적 영상 분할을 위해 배경과 물체로 재설계된 클래스를 학습하는 방법을 제안한다. 의미론적 영상 분할은 이미지의 벽이나 침대 등 의미를 갖는 부분들을 픽셀 단위로 나누는 기술이다. 기존 의미론적 영상 분할에 대한 연구들은 신경망을 통해 이미지의 다양한 객체 클래스들을 학습하는 방법들을 제시해왔고, 긴 학습 시간에 비해 정확도가 부족하다는 문제가 지적되었다. 그러나 물체와 배경을 분리하는 문제에서는, 다양한 객체 클래스를 학습할 필요가 없다. 따라서 우리는 이 문제에 집중해, 클래스를 단순화 후에 학습하는 방법을 제안한다. 학습 방법의 실험 결과로 기존 방법들보다 정확도가 약 5~12% 정도 높았다. 그리고 같은 환경에서 클래스를 달리 구성했을 때 학습 시간이 약 14 ~ 60분 정도 단축됐으며, 이에 따라 물체와 배경을 분리하는 문제에 대해 제안하는 방법이 효율적임을 보인다.


In this paper, we propose a method to learn the redesigned class with background and object for semantic segmentation of indoor scene image. Semantic image segmentation is a technique that divides meaningful parts of an image, such as walls and beds, into pixels. Previous work of semantic image segmentation has proposed methods of learning various object classes of images through neural networks, and it has been pointed out that there is insufficient accuracy compared to long learning time. However, in the problem of separating objects and backgrounds, there is no need to learn various object classes. So we concentrate on separating objects and backgrounds, and propose method to learn after class simplification. The accuracy of the proposed learning method is about 5 ~ 12% higher than the existing methods. In addition, the learning time is reduced by about 14 ~ 60 minutes when the class is configured differently In the same environment, and it shows that it is possible to efficiently learn about the problem of separating the object and the background.

KCI등재

5최신 웹 크롤링 알고리즘 분석 및 선제적인 크롤링 기법 제안

저자 : 나철원 ( Chul-won Na ) , 온병원 ( Byung-won On )

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 43-59 (17 pages)

다운로드

(기관인증 필요)

초록보기

오늘날 스마트폰의 보급과 SNS의 발달로 정형/비정형 빅데이터는 기하급수적으로 증가하였다. 이러한 빅데이터를 잘 분석한다면 미래 예측도 가능할 만큼 훌륭한 정보를 얻을 수 있다. 빅데이터를 분석하기 위해서는 먼저 대용량의 데이터 수집이 필요하다. 이러한 데이터가 가장 많이 저장되어 있는 곳은 바로 웹 페이지다. 하지만 데이터의 양이 방대하기 때문에 유용한 정보를 가진 데이터가 많은 만큼 필요하지 않은 정보를 가진 데이터도 많이 존재한다. 그렇기 때문에 필요하지 않은 정보를 가진 데이터는 거르고 유용한 정보를 가진 데이터만을 수집하는 효율적인 데이터 수집의 중요성이 대두되었다. 웹 크롤러는 네트워크 대역폭, 시간적인 문제, 하드웨어적인 저장소 등의 제약으로 인해 모든 페이지를 다운로드 할 수 없다. 그렇기 때문에 원하는 내용과 관련 없는 많은 페이지들의 방문은 피하며 가능한 빠른 시간 내에 중요한 페이지만을 다운로드해야한다. 이 논문은 위와 같은 이슈의 해결을 돕고자한다. 먼저 기본적인 웹 크롤링 알고리즘들을 소개한다. 각 알고리즘마다 시간복잡도와 장단점을 설명하며 비교 및 분석한다. 다음으로 기본적인 웹 크롤링 알고리즘의 단점을 개선한 최신 웹 크롤링 알고리즘들을 소개한다. 더불어 최근 연구 흐름을 보면 감성어휘 수집과 같은 특수한 목적을 가진 웹 크롤링 알고리즘의 대한 연구가 활발히 이루어지고 있다. 특수 목적을 가진 웹 크롤링 알고리즘에 대한 연구로써 선제적인 웹 크롤링 기법으로 감성 반응 웹 크롤링(Sentiment-aware Web Crawling) 기법을 소개한다. 실험결과 데이터의 크기가 커질수록 기존방안보다 높은 성능을 보였고 데이터베이스의 저장 공간도 절약되었다.


Today, with the spread of smartphones and the development of social networking services, structured and unstructured big data have stored exponentially. If we analyze them well, we will get useful information to be able to predict data for the future. Large amounts of data need to be collected first in order to analyze big data. The web is repository where these data are most stored. However, because the data size is large, there are also many data that have information that is not needed as much as there are data that have useful information. This has made it important to collect data efficiently, where data with unnecessary information is filtered and only collected data with useful information. Web crawlers cannot download all pages due to some constraints such as network bandwidth, operational time, and data storage. This is why we should avoid visiting many pages that are not relevant to what we want and download only important pages as soon as possible. This paper seeks to help resolve the above issues. First, We introduce basic web-crawling algorithms. For each algorithm, the time-complexity and pros and cons are described, and compared and analyzed. Next, we introduce the state-of-the-art web crawling algorithms that have improved the shortcomings of the basic web crawling algorithms. In addition, recent research trends show that the web crawling algorithms with special purposes such as collecting sentiment words are actively studied. We will one of the introduce Sentiment-aware web crawling techniques that is a proactive web crawling technique as a study of web crawling algorithms with special purpose. The result showed that the larger the data are, the higher the performance is and the more space is saved.

KCI등재

6스마트 안전모와 비콘을 이용한 건설현장 안전관리 시스템 설계 및 구현

저자 : 서귀빈 ( Kwi-bin Seo ) , 민세동 ( Se Dong Min ) , 이승현 ( Seung-hyun Lee ) , 홍민 ( Min Hong )

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 61-68 (8 pages)

다운로드

(기관인증 필요)

초록보기

과거 건설공사의 목표는 원가절감과 공사기간의 단축을 통한 효율성 증진이었다. 하지만 최근 안전관리의 중요성이 부각되고 있으며, 고용 노동부는 산업 재해로 인한 사망자를 절반으로 감소하겠다는 목표를 설정하였으며, 이에 따라 제도적 및 법적 개선이 추구되고 있으며 안전에 대한 필요성이 강조되고 있다. 하지만 일부 대형 건설 회사를 제외한 대부분의 건설업체는 안전관리에 많은 부족함을 보이고 있다. 이러한 건설현장의 안전문제를 해결하기 위하여 본 논문에서는 스마트 안전모와 비콘을 이용하여 건설현장 안전관리 시스템을 설계 및 구현하였다.


The goal of the construction work in the past was to improve the efficiency through cost reduction and shortening the construction period. However, the importance of safety management has recently been emphasized, and the Ministry of Employment and Labor has set a goal of reducing the number of deaths caused by industrial accidents by half. As a result, institutional and legal improvements are pursued and the need for safety is emphasized. However, most construction companies, except for some large construction companies, are lacking in safety management. So, In this paper, we design and implement a safety management system for construction site using smart helmets and beacons.

KCI등재

7Methods of Extracting and Providing R&D Documentation Guideline for Licensing Medical Device Software

저자 : Dongyeop Kim , Byungjeong Lee , Jung-won Lee

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 69-75 (7 pages)

다운로드

(기관인증 필요)

초록보기

The safety and performance of medical device software is managed through life-cycle processes, which represent the entire process of research and development (R&D). The life-cycle process of medical device software is represented by an international standard called IEC 62304, ISO/IEC 12207. In order to license the product, the manufacturer must have document artifacts that comply with the IEC 62304 standard. However, these standards only describe the content of the activity and do not provide a method or procedure for documentation. Therefore, this paper suggests R&D documentation guidelines that assist medical device software developers to have R&D documents conforming to the standards. For this purpose, this study identifies the requirements related to documentation among the requirements existing in the standard and extracts them in the form of guidelines showing only the core information of the requirements. In addition, through the Web framework implemented based on this research, the developer can evaluate whether the technical documents are written in accordance with the R&D document guidelines. Medical device software manufacturers can efficiently produce high-quality research and development documents through R&D documentation guidelines, and they can have standards-compliantresearch and development documentation required for licensing procedures.

KCI등재

8Defining and Discovering Cardinalities of the Temporal Workcases from XES-based Workflow Logs

저자 : Jaeyoung Yun , Hyun Ahn , Kwanghoon Pio Kim

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 77-84 (8 pages)

다운로드

(기관인증 필요)

초록보기

Workflow management system is a system that manages the workflow model which defines the process of work in reality. We can define the workflow process by sequencing jobs which is performed by the performers. Using the workflow management system, we can also analyze the flow of the process and revise it more efficiently. Many researches are focused on how to make the workflow process model more efficiently and manage it more easily. Recently, many researches use the workflow log files which are the execution history of the workflow process model performed by the workflow management system. Ourresearch group has many interests in making useful knowledge from the workflow event logs. In this paper we use XES log files because there are many data using this format. This papersuggests what are the cardinalities of the temporal workcases and how to get them from the workflow event logs. Cardinalities of the temporal workcases are the occurrence pattern of critical elements in the workflow process. We discover instance cardinalities, activity cardinalities and organizational resource cardinalities from several XES-based workflow event logs and visualize them. The instance cardinality defines the occurrence of the workflow process instances, the activity cardinality defines the occurrence of the activities and the organizational cardinality defines the occurrence of the organizational resources. From them, we expect to get many useful knowledge such as a patterns of the control flow of the process, frequently executed events, frequently working performer and etc. In further, we even expect to predict the original process model by only using the workflow event logs.

KCI등재

9Disjunctive Process Patterns Refinement and Probability Extraction from Workflow Logs

저자 : Kyoungsook Kim , Seonghun Ham , Hyun Ahn , Kwanghoon Pio Kim

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 85-92 (8 pages)

다운로드

(기관인증 필요)

초록보기

In this paper, we extract the quantitative relation data of activities from the workflow event log file recorded in the XES standard format and connect them to rediscover the workflow process model. Extract the workflow process patterns and proportions with the rediscovered model. There are four types of control-flow elements that should be used to extract workflow process patterns and portions with log files: linear (sequential) routing, disjunctive (selective) routing, conjunctive (parallel) routing, and iterative routing patterns. In this paper, we focus on four of the factors, disjunctive routing, and conjunctive path. A framework implemented by the authors' research group extracts and arranges the activity data from the log and converts the iteration of duplicate relationships into a quantitative value. Also, for accurate analysis, a parallel process is recorded in the log file based on execution time, and algorithms for finding and eliminating information distortion are designed and implemented. With these refined data, we rediscover the workflow process model following the relationship between the activities. This series of experiments are conducted using the Large Bank Transaction Process Model provided by 4TU and visualizes the experiment process and results.

KCI등재

10The Study on Correlation of Cognition on Software Education with Improvement of Computational Thinking

저자 : Oakyoung Han , Jaehyoun Kim

발행기관 : 한국인터넷정보학회 간행물 : 인터넷정보학회논문지 20권 3호 발행 연도 : 2019 페이지 : pp. 93-100 (8 pages)

다운로드

(기관인증 필요)

초록보기

The interest in the Fourth Industrial Revolution along with the development of ICT makes the software get the attention of the world. This phenomenon naturally leads to the concern for software education. Learning software coding is not easy for students whose major is in humanities or social sciences. This paper is a study of how cognition on software education affects to education of computational thinking. For research method, moderator variables were adopted on the proposed research model to prove that positive cognition can derive good influence on improvement of computational thinking. To find out moderator variables of the research model, we have conducted the questionnaire over three years for total of 928 students who took the software coding courses. As the result of the study, we proved that the positive cognition on software education can make the better improvement of computational thinking within proper moderator variables.

12
권호별 보기
가장 많이 인용된 논문

(자료제공: 네이버학술정보)

가장 많이 인용된 논문
| | | |
1연안해역에서 석유오염물질의 세균학적 분해에 관한 연구

(2006)홍길동 외 1명심리학41회 피인용

다운로드

2미국의 비트코인 규제

(2006)홍길동심리학41회 피인용

다운로드

가장 많이 참고한 논문

(자료제공: 네이버학술정보)

가장 많이 참고한 논문

다운로드

2미국의 비트코인 규제

(2006)홍길동41회 피인용

다운로드

해당 간행물 관심 구독기관

한국행정연구원 서울대학교 연세대학교 고려대학교 경희대학교
 73
 44
 43
 27
 22
  • 1 한국행정연구원 (73건)
  • 2 서울대학교 (44건)
  • 3 연세대학교 (43건)
  • 4 고려대학교 (27건)
  • 5 경희대학교 (22건)
  • 6 성균관대학교 (21건)
  • 7 한양대학교 (21건)
  • 8 국회도서관 (20건)
  • 9 인하대학교 (20건)
  • 10 제주중앙여자고등학교 (18건)

내가 찾은 최근 검색어

최근 열람 자료

맞춤 논문

보관함

내 보관함
공유한 보관함

1:1문의

닫기