이슈논문

Data Report>이슈논문

이슈 키워드 논문 TOP10

이슈논문
| | | | 다운로드

KCI등재

1항만 운영시스템의 인공지능 로직 적용 방안 연구

저자 : 최용석 ( Choi Yong-seok )

발행기관 : 한국해운물류학회 간행물 : 해운물류연구 114권 0호 발행 연도 : 2022 페이지 : pp. 101-118 (18 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 항만의 운영시스템을 대상으로 운영의 개선 및 생산성 향상을 위해 적용이 필요한 인공지능 로직의 적용방안에 대해서 적용의 우선순위를 분석하여 컨테이너터미널 운영 효율화를 위한 방안을 도출하고자 하였으며, 연구의 목표를 달성하기 위해 운영시스템 세부 개술들에 대한 필요 요인들을 도출하고 평가하였다. AHP를 통한 분석 결과는 1계층에서 야드시스템, 안벽시스템, 하역장비, 정보시스템의 순으로 중요도가 나타났다. 2계층 평가에서는 선석계획, 야드계획, 이송차량 풀링, 안벽 크레인 스케줄링, 야드크레인 스케줄링 순으로 중요도가 높게 나타났으며, 야드시스템평가에서는 야드계획, 이송차량 풀링, 야드크레인 스케줄링 순으로 나타났다. 환산 가중치를 이용한 종합평가 결과는 선석계획이 1위, 야드계획이 2위, 이송차량 풀링이 3위로 중요도가 높게 나타났다.


This study analyzes the priority of application of artificial intelligence logic, which needs to be applied to improve operation and productivity, to derive measures for efficient operation of container terminals. In order to achieve the goal of the study, necessary factors for detailed outline of the operating system were derived and evaluated. The analysis results through AHP showed importance in the order of yard system, berth system, stevedoring equipment, and information system in the first tier. In the second-tier evaluation, berth planning, yard planning, transport vehicle pooling, quay crane scheduling, and yard crane scheduling were of high importance in the order of yard planning, transport vehicle pooling, and yard crane scheduling. As a result of the comprehensive evaluation using the converted weight, the berth planning ranked first, the yard planning ranked second, and the transport vehicle pooling ranked third, showing high importance.

KCI등재

2사물의 인간화, 인간의 사물화: 빌렘 플루서의 사진 철학을 중심으로

저자 : 박상우 ( Park Sangwoo )

발행기관 : 한국미학회 간행물 : 미학 88권 1호 발행 연도 : 2022 페이지 : pp. 43-73 (31 pages)

다운로드

(기관인증 필요)

초록보기

본고는 인류 문명사의 두 경향인 사물의 인간화와 인간의 사물화를 플루서의 철학을 통해 살펴본다. 이를 통해 오늘날 인공지능 시대의 두 축인 사물의 인공지능화와 인간의 로봇화를 분석한다. 인류의 등장 이래 사물, 특히 도구, 기계, 장치는 인간의 신체와 두뇌를 모사하면서 점차 인간화되어 왔다. 도구는 인간을 경험적으로, 기계는 기술적으로 모사하고, 장치는 인간의 사유를 모사한다. 인간 사유를 모사한 장치는 사진 장치를 포함해서 계산하는 기계, 인공지능이다. 인간이 자신을 모사한 사물을 만들면, 그 사물은 인간을 자신을 모사한 사물로 만든다. 도구는 도구-인간, 기계는 기계-인간, 장치는 장치-인간을 만든다. 사진가처럼 장치를 다루는 인간은 장치 구조인 입자 구조에 종속되어 분절적으로 사유하고 행위한다. 사진가뿐만 아니라 사진 우주에서 살아가는 모든 사람의 사유와 행위도 로봇처럼 입자적이다. 후기산업사회의 인간과 로봇의 모든 정신과 동작은 장치 프로그램의 상징들로 환원될 수 있다. 오늘날 문화비평의 임무는 바로 현대인의 사유와 행위 속에 침투해있는 프로그램의 상징들을 드러내는 데 있다.


This paper examines the humanization of objects and the objectification of humans, two trends in the history of human civilization, through Flusser's philosophy. Through this, the two axes of today's artificial intelligence era, the artificial intelligence of things and the robotization of humans, are investigated. Since the advent of mankind, objects, especially tools, machines, and apparatus, have been gradually humanized by simulating the human body and brain. Tools simulate humans empirically, machines simulate technically, and apparatus simulate human thinking. A simulated apparatus for human thinking including a photographic apparatus is a calculating machine, an artificial intelligence. When humans make objects that simulate themselves, the objects make humans into objects that simulate themselves. Tools make tool-humans, machines make machine-humans, and apparatus make apparatus-humans. Like a photographer, a human man who manipulates the apparatus is subordinated to the particle structure, which is the apparatus structure, and articulately thinks and acts. The thoughts and actions of not only photographers but also everyone living in the photographic universe are particle-like, like robots. All the minds and movements of humans and robots in post-industrial society can be reduced to the symbols of the apparatus program. The task of cultural criticism today is to reveal the symbols of programs that permeate the thoughts and actions of contemporaries.

KCI등재

3인공지능윤리학의 메타윤리적 접근

저자 : 이상희 ( Lee Sang Hee )

발행기관 : 한국초등도덕교육학회 간행물 : 초등도덕교육 76권 0호 발행 연도 : 2022 페이지 : pp. 131-156 (26 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 인공지능 윤리 담론 안에 철학적 성찰로서 윤리적 논의가 결여되어 있다는 문제의식에서 출발하여, 이러한 문제가 인공지능 윤리학 고유의 인식론적, 의미론적 어려움에서 기인함을 밝히는 데 목적이 있다. 인공지능 윤리학은 현존하는 인공지능 기술의 윤리적 문제와 대부분은 실존하지 않는 미래의 잠재적 윤리적 문제를 포괄하여 다룬다. 이로 인해, 인공지능 윤리학은 규범적 논의를 위한 윤리적 문제를 설정하는 데서부터 인식론적 어려움에 부딪힌다. 또한, 인공지능에서 주요하게 사용되는 지능적 에이전트(intelligent agent)의 개념은 다른 분야에서 사용되는 개념과 달라 논의의 혼란을 일으킨다.


This study starts with a awareness of the lack of ethical discussion as a philosophical reflection within discourses of artificial intelligence ethics. The purpose of this study is to reveal that those problems stem from epistemological and semantic difficulties that artificial intelligence ethics has. Artificial intelligence ethics encompasses existing ethical problems for artificial intelligence technology and potential ethical problems in the future. For those reasons, artificial intelligence ethics has epistemological difficulties from establishing ethical issues in terms of normative discussion. In addition, there are semantic problems that the meaning of the term "intelligent agent" used in the field of artificial intelligence is conceptually different from other academic fields.

KCI등재

4인간과 인공지능은 감정이입을 통해 상호작용이 가능한가? -돌봄과 치료의 영역을 중심으로-

저자 : 이은영 ( Eun Young Lee )

발행기관 : 한국현대유럽철학회 간행물 : 현대유럽철학연구 64권 0호 발행 연도 : 2022 페이지 : pp. 319-348 (30 pages)

다운로드

(기관인증 필요)

초록보기

인간과 인공지능은 감정이입을 통해 상호작용이 가능한가? 감정이입 및 공감능력이 인간의 본질 또는 진정한 인간의 모습으로 제시될 수 있다면(적어도 에디트 슈타인과 리프킨이 강조하듯이), 따라서 감정이입이 인간 상호작용의 중요한 지점이 될 수 있다면, 인공지능도 인간에게 그것을 통한 상호작용이 가능한가의 문제가 제기될 수 있다. 만일 인공지능이 인간에게 감정이입을 통한 상호작용이 가능하다면, 그것이 왜 돌봄과 치료 영역에서 논의되어야 하는가. 그것은 돌봄의 실천적 영역인 의료현장에서 공감을 통한 의사소통이 의료인과 환자 사이에 인간관계의 신뢰와 치료 과정에 필수적이기 때문일 것이다. 그런 한에서 이 글은 의료인과 환자가 상호 원활한 의사소통을 진행할 수 없는 말기환자의 돌봄 문제에서 인간과 인공지능의 상호작용이 공감과 감정이입을 통해 어느 정도 유효한지 논의하는데 목표를 두고 있다. 그 과정에서 인공지능 로봇은 인간과 감정 교환을 통한 관계 형성을 진행할 수 있다는 주장이 성립된다. 다시 말해서 인공지능과 인간의 감정표현을 통한 관계형성의 가능성이 인정되는 지점에서 인공지능 로봇은 인간과 관계 형성이 가능하며, 인간과 인공지능의 상호작용이 가능하다고 인정하는 영역에서는 이것을 인공지능이 인간과 감정교환을 통해 인간을 이해할 수 있다고 주장할 수 있다. 만일 이러하다면 인공지능 로봇은 인간과 감정이입이 가능하게 된다. 하지만 인공지능 로봇과 인간의 그것이 가능하지 않다고 인정하는 영역에서는 인공지능 로봇이 empathy로서 감정이입을 통해서 인간을 이해하기 보다는 감정교환 행위를 통해서 인간으로 하여금 인공지능 로봇이 인간 자신을 이해하고 있다고 착각하게 한다고 주장할 것이다. 그럼에도 불구하고 코로나 상황에서 인공지능 로봇은 돌봄 영역과 로봇을 통한 치료의 영역인 ‘치료 로봇’(therapeutic robot)의 영역에서 상당한 기여를 하고 있는 것도 사실이다. 그런 한에서 인공지능 로봇의 발전이 어느 정도까지 진행될지, 인공지능 로봇이 돌봄을 요구하는 환자들에게 어느 정도 치료효과를 부여할 수 있는지 기대되는 것도 사실이다.


Can humans and artificial intelligence interact with each other? If empathy and sympathy can be presented as human nature or true human form (at least as Edith Stein and Rifkin emphasize), therefore making empathy an important aspect of human interaction, can artificial intelligence also interact with humans through empathy? If so, why is it discussed in the field of patient care? The reason may be because communication through empathy in the medical field, which is a practical area of care, is essential for trust in the relationship between medical personnel and patients and for the treatment process. Particularly, terminally ill patients cannot verbally communicate smoothly to medical personnel (in this case, the category of human is defined as a patient in a state of pain and who needs care). Thus, the degree of the effectiveness of the interaction between humans and artificial intelligence through sympathy and empathy must be determined. In the process, artificial intelligence robots are believed to proceed with forming relationships with humans through emotional exchange. As a result, a relationship may be formed between artificial intelligence and human emotion expression, enabling artificial intelligence robots to establish relationships with humans. Moreover, in areas where humans and artificial intelligence are recognized, artificial intelligence can understand humans through emotional exchange. Thus, artificial intelligence robots can empathize with humans. However, do artificial intelligence robots truly empathize with humans? In other words, can artificial intelligence robots understand humans who exist as others through empathy? Arguing that humans misinterpret that artificial intelligence robots understand humans through emotional exchange rather than understanding humans through empathy would be more reasonable. Nevertheless, amid the COVID-19 pandemic, artificial intelligence is expected to develop in the field of care and therapy through robots. Thus, the extent to which they can provide effective therapy to patients must be determined.

KCI등재

5인간 편향성과 인공지능의 교차

저자 : 박도현 ( Park Do Hyun )

발행기관 : 서울대학교 법학연구소 간행물 : 서울대학교 법학 63권 1호 발행 연도 : 2022 페이지 : pp. 139-175 (37 pages)

다운로드

(기관인증 필요)

초록보기

인공지능 의사결정이 인간 편향성을 마치 거울처럼 있는 그대로 반영하여 문제이고, 이에 대한 규제가 필요하다는 주장이 여기저기서 대두되고 있다. 그런데 이러한 주장의 전제를 곧이곧대로 받아들인다고 해도 일견 규제 거버넌스를 구축해야 한다는 결론이 논리적으로 도출되지는 않는 것 같다. 해악의 총량에 변화가 없다면 새로운 규제를 신설할 이유가 없고, 문제의 근원은 인간이니 인류에게 적용된 인간 편향성에 대한 기존 규율에 집중하면 될 것 같기 때문이다. 이러한 반론은 인공지능 규제 거버넌스의 토대 자체를 위협하는 강력한 것임에도 불구하고, 이에 대한 진지한 논의 대신 규범적 개입을 당연시하는 경향이 있다. 이는 자칫 인공지능 규제 거버넌스 논의가 주로 개인의 기술비관론 내지 특정한 도덕관념에 기인한 정치적 수사에 불과하다는 인상을 불러일으킬 위험이 있어 유의해야 한다. 본고는 이와 같은 문제의식에서, 인공지능 의사결정이 인간 편향성을 마치 거울처럼 반영하고 있다는 일명 ‘편향성 거울 문제’의 허와 실에 대해 검토하였다. 인공지능은 다양한 경로를 통해 때로는 인간 편향성을 있는 그대로 반영하기도 하고, 때로는 추가적 해악을 만들어내기도 한다. 후자의 가능성이 실재하기 때문에, 적어도 이에 대해서는 규제 거버넌스가 일정 부분 정당화될 수 있다는 결론을 내릴 수 있다. 다른 한편 인공지능은 인간에게 막대한 물질적 편익을 제공하거나 윤리성을 강화하기도 한다. 따라서 인간 편향성의 확대재생산이 실재한다고 하더라도 이러한 효과를 함께 고려하여 균형 잡힌 규제 거버넌스 체계를 추구해야 한다는 것이 본고의 결론이다.


It is argued that the decision-making of artificial intelligence (AI) is problematic because it reflects human bias like a mirror, and that there is a need for regulation. However, even if we accept the premise of this argument, it seems that the conclusion cannot be logically drawn. This is because there is no reason to create a new regulation system if there is no change in the total amount of harm. And since the root of all problems is human beings, it is likely that we should pay attention to the existing regulatory system focusing on human bias. While this objection is a powerful threat to the foundation of AI governance, it tends to take normative interventions for granted. This can give the impression that the discussion of AI governance is nothing more than political rhetoric based mainly on individual moral views. This paper examines the truths and lies of the so-called “the problem of bias mirror” that AI decision-making reflects human bias like a mirror. AI sometimes reflects human bias as it is and sometimes creates additional harm (emergent harm). Since the latter is real, AI governance can be justified to some extent. On the other hand, AI offers us enormous material benefits or reinforces human ethics. So, even if the problem of bias mirror is real, these positive effects should be considered altogether, and a balanced view on AI governance should be taken into account.

KCI등재

6독거노인의 반려 AI 로봇(효돌)과의 동거 중에 경험하는 의인화에 대한 질적연구

저자 : 송문선 ( Song Moon-sun )

발행기관 : 한국사회복지연구회 간행물 : 사회복지연구 53권 1호 발행 연도 : 2022 페이지 : pp. 119-159 (41 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 독거노인이 AI 대화 로봇(효돌)을 사용함으로써 경험하는 의인화 과정을 실증적으로 확인하고자 인터뷰 형식의 질적 방법으로 수행되었다. 이를 위한 연구 질문은 “독거노인이 효돌이와의 동거를 통하여 경험하는 의인화의 과정이 어떠한가?”이며 일곱 명의 독거노인을 참여대상으로 진행하였다. 분석 결과 ‘심리적 혼돈’, ‘기계로서의 이질적 향기’, ‘친밀적 인형’으로의 심미적 재탐색, ‘보디가드’ & ‘만능 도우미’로서의 의존적 신뢰화, ‘애교쟁이 말벗’으로서의 공감적 내면화, ‘반려 친구’로서의 동질적 애착화, ‘내 가족’으로서의 관계적 실재화라는 7개 구성요소와 18개 하위구성 요소 및 43개 의미 단위로 조직화되었다. 의인화 형태는 감각적 의인화를 선두로 인지적 의인화, 행위적 의인화, 정서적 의인화, 사회적 의인화, 관계적 의인화로서의 형태를 보이며 이는 서로 배타적이지 않고 상호 교차하며 작용하는 것으로 분석되었다. 본 시도는 현재 초기 단계로 진행되는 인공지능 대화 로봇 효돌이와 독거노인 간의 의인화 과정과 그 정서적, 사회적 효과에 주목함으로써 향후 AI 활용 노인 돌봄서비스의 방향을 효율적으로 모색하여 궁극적으로 노인의 삶의 질 향상에 기여할 것이며, 또한 복지와 과학의 융합적 패러다임을 선도함에도 긍정적 역할을 할 것이다.


This study was conducted in a qualitative manner in the form of an interview to demonstrate the personification experienced by the use of AI conversational robots called hyodol. The research question for this is, “What is the process of anthnoyancethat elderly living alone experience through cohabitation with hyodol?” and interviews were conducted with seven study participants. Analysis results organized into 5 components, 19 sub-components, and 50 semantic units showing ‘psychological chaos’, ‘A heterogeneous scent as a machine.’, ‘An aesthetic re-exploration of “Intimate Doll”’, ‘Reliable trust as a bodyguard and multi-talented helper’, ‘Empathetic internalization as “Cute Malbut(a companion to talk with)”’, ‘Homogeneous attachment as a companion’, ‘Realization of relations as “my family”’. The form of personification shows the cognitive, behavioral, emotional, social, and relational personification form, led by sensory personification and they are not exclusive, intersects and influences each other. This attempt will contribute to the happy life of the solo workers by efficiently seeking the direction of development of AI for the care of the elderly in the future by paying attention to the anthnoyance process and its emotional and social effects between hyodol, an artificial intelligence dialogue robot that is currently in its infancy, and will play a positive role in the convergent paradigm of welfare and science.

KCI등재

7인공지능 시대의 언어 연구: 주요 문제와 언어학의 역할

저자 : 황화상 ( Hwang Hwa-sang )

발행기관 : 서강대학교 언어정보연구소 간행물 : 언어와 정보사회 45권 0호 발행 연도 : 2022 페이지 : pp. 145-168 (24 pages)

다운로드

(기관인증 필요)

초록보기

Linguists have not played a leading role in natural language processing. And linguistics has not provided enough explanations for the linguistic problems that arise in natural language processing. There is a practical difference between the orientation of linguistics and the orientation of natural language processing. Linguists aim for machines that understand language like humans. In contrast, natural language processing researchers aim for machines that use language as humans do. The natural language processing device inherent in humans is the most perfect. So the surest way to build a machine that uses language is to make it understand language the same way humans understand langauge. For linguists to play a leading role in natural language processing, they have to expand the scope of linguistic research. In particular, linguists must explain how humans understand language. Linguists must also examine the actual process by which we analyze sentences.

KCI등재

8인공지능(AI)의 고용과 임금 효과

저자 : 전병유 ( Byung-you Cheon ) , 정준호 ( Jun-ho Jeong ) , 장지연 ( Ji-yeun Chang )

발행기관 : 한국경제통상학회 간행물 : 경제연구 40권 1호 발행 연도 : 2022 페이지 : pp. 133-156 (24 pages)

다운로드

(기관인증 필요)

초록보기

기술변화의 노동시장 효과에 관한 기존 연구가 자동화, 디지털화, 또는 로봇이나 컴퓨터 도입의 노동시장 효과에 집중하였다면, 본 연구는 인공지능(Artificial Intelligence, AI)의 기술적 특성들의 고용과 임금 효과에 집중한다. AI응용기술(AI-apps)과 능력 변수들 사이의 연계표를 기초로 하여 직업별 인공지능노출도(AI Occupational Exposure, AIOE)를 도출하였다. 한국고용정보원의 『한국직업정보 재직자 조사』로 분석한 결과, AIOE는 학력, 임금 등과 높은 상관관계를 가지는 것을 확인했다. AIOE를 고용보험DB에 적용하여 AI의 고용과 임금 효과를 추정한 결과, AI는 고용증가에는 유의하나, 임금상승에는 유의하지 않았다. 그러나, AI의 임금 프리미엄은 유의하고 크게 나타났다. 이미지 관련 AI응용기술보다는 텍스트 관련 AI응용기술이 고용과 임금에 유의한 (+)의 효과를 가지는 것으로 나타났다. 학력과 임금 수준에 따른 계층별 추정 결과는 유의하지 않았다. 다만, AI의 임금프리미엄이 고학력, 고임금, 높은 지식수준 계층에서 유의했다. 한국의 경우, AI가 노동시장을 양극화하지는 않고 있지만, AI 임금프리미엄 효과가 고학력-고임금 계층에서 크다는 점에서, 향후 AI의 노동시장 양극화 가능성을 배제할 수는 없다고 전망된다.


This study focuses on the employment and wage effects of the technological characteristics of AI. Recently, AI job effect research is conducted in a way that links the technical characteristics of AI to ‘task’ or ‘ability’ among job characteristics, or connects ‘patent’ information and job information. This study created AI Occupational Exposure (AIOE) by occupation based on the linking metrics between AI applications and ability variables. By applying AIOE to the Employment Insurance DB, we estimated the employment and wage effects of AI in the 2015-2019 region-occupation cell as an observation unit. The result is that AI significantly increases employment, but does not have a significant effect on wage increase. However, the wage premium of AI was significant and large. In particular, it was also found that textrelated AI-apps have a significant (+) effect on employment and wages while image-related AI-apps have not. Estimation was also made by class according to educational background, wage, and knowledge level. AI has a significant (+) effect on employment increase and wage increase in the low-education, low-middle-wage level. However, the wage premium of AI was found to be significant and high in the high educational and high wage level. Currently, AI technology in Korea does not act as a factor in deepening the polarization of the labor market, but since the wage premium effect of AI is clear and large in the high-education-high-wage class, it is judged that AI technology is likely to deepen the polarization of the labor market in the future.

KCI등재

9수학 교수·학습을 위한 인공지능 플랫폼 분석 연구

저자 : 박혜연 ( Park Hye Yeon ) , 손복은 ( Son Bok Eun ) , 고호경 ( Ko Ho Kyoung )

발행기관 : 한국수학교육학회 간행물 : E-수학교육 논문집 36권 1호 발행 연도 : 2022 페이지 : pp. 1-21 (21 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 디지털 기술의 본격 활용에 따라 시간과 장소에 구애받지 않는 유연한 학습 환경 구축의 방안으로 제안되고 있는 에듀테크가 수학 교과에서 활용되기 위하여 그 현황을 분석하는 데 목적이 있다. 이에 따라 국내외 에듀테크 현황 및 활용 동향을 확인하며, 수학교과에서 활용되는 에듀테크 플랫폼의 기능과 그 역할을 분석하였다. 분석 결과, 에듀테크 플랫폼은 위계적 학문인 수학교육에서 학습자 개별 맞춤 학습에 유용할 수 있도록 그 기능을 구축해 나가고 있으며, 나아가 학습자의 자기주도학습을 추구하고 있었다. 또한 각 수업 단계에 맞는 활동 및 평가가 가능하여 교사의 업무경감 및 학습관리와 역량 강화 수업 등에 유용할 수 있도록 발전되어가고 있음을 확인하였다. 따라서 향후 이러한 플랫폼을 효율적으로 활용할 수 있는 교수설계 및 학생의 개별 맞춤형 학습 지원 활용 방안이 함께 수행되어질 필요가 있다.


The purpose of this study is to analyze the current situation of EduTech, which is proposed as a way to build a flexible learning environment regardless of time and place according to the use of digital technology in mathematics subjects. The process of designing classes to use the EduTech platform, which is still in the development introduction stage, in public education is still difficult, and research to observe its effects and characteristics is also in its early stages. However, in the stage of preparing for future education, it is a meaningful process to grasp the current situation and point out the direction in preparation for the future in which EduTech will be actively applied to education. Accordingly, the current situation and utilization trends of EduTech at home and abroad were confirmed, and the functions and roles of EduTech platforms used in mathematics were analyzed. As a result of the analysis, the EduTech platform was pursuing learners' self-directed learning by constructing its functions so that they could be useful for individual learning of learners in hierarchical mathematics education. In addition, we have confirmed that the platform is evolving to be useful for teachers' work reduction, suitable activities, and evaluations learning management. Therefore, it is necessary to implement instructional design and individual customized learning support measures for students that can efficiently utilize these platforms in the future.

KCI등재

10인공지능 의료서비스의 환자 순응도에 관한 연구: 신체적 위험의 조절효과와 신뢰의 매개효과를 중심으로

저자 : 이혁진 ( Lee Hyuk Jin ) , 이인영 ( Lee Inyoung ) , 김상훈 ( Kim Sang-hoon )

발행기관 : 한국소비자학회 간행물 : 소비자학연구 33권 1호 발행 연도 : 2022 페이지 : pp. 1-22 (22 pages)

다운로드

(기관인증 필요)

초록보기

최근 의료계에서 인공지능 기술의 도입 사례가 증가하고 있다. 많은 의료기관들이 의사의 경험과 지식에 의존해왔던 기존 의료서비스의 패러다임에서 벗어나 환자 모니터링, 임상사례 분석, 진단, 처방 및 수술에 인공지능 기술을 활용하고 있다. 그러나 의료소비자의 입장에서 인공지능이 제공하는 의료서비스에 대한 수용 의도를 조명한 연구는 극히 제한적이다. 이에 본 연구는 의료서비스 제공자 유형에 따른 환자 순응도 차이와 기저 원인을 탐색하기 위해 수행되었다. 구체적으로 의료서비스 제공자가 인공지능인 경우와 인간 의사인 경우로 구분하여, 환자 건강 상태의 심각성이나 의료서비스가 신체에 미칠 수 있는 잠재적 위험인 신체적 위험 정도에 따라 의료 서비스에 대한 환자의 순응 의도에 어떠한 차이가 왜 발현되는지를 분석하였다. 분석 결과, 심혈관 질환 시나리오를 가정한 실험1을 통해 의료서비스 제공자가 인공지능인 경우 인간 의사인 경우보다 환자의 순응도가 낮게 나타나며, 의료서비스 제공자에 대한 환자의 신뢰가 이러한 효과를 매개함을 밝혔다. 실험2에서는 통증이 심한 환자가 수술치료를 처방받는 경우와 같이 신체적 위험이 높은 경우, 인간 의사에 비해 인공지능에 대한 환자의 순응도가 낮음을 보였으며, 통증이 낮은 환자가 약물 치료를 처방받는 경우와 같이 신체적 위험이 낮은 경우에는 의료서비스 제공자 유형에 따른 환자 순응도 차이가 유의하지 않음을 밝혔다. 마지막으로 실험3에서는 의료서비스 제공자 유형과 신체적 위험의 상호작용이 환자 순응도에 미치는 영향은 의료서비스 제공자에 대한 소비자의 신뢰가 매개함을 보였다. 본 연구는 의료서비스 제공자 유형이 환자 순응도에 미치는 영향을 다각적으로 고찰함으로써, 인공지능을 활용한 의료서비스의 효과적 활용 조건을 발견하여 의료계에 시사점을 제공하고 의료소비자 복지를 증진시키는 데 의의가 있다.


The use of artificial intelligence (AI) in the medical field is gradually increasing with the rapid advancement of technology. Departing from the previous paradigm that relied on the experience and knowledge of physicians, many hospitals have implemented AI technology to accurately monitor patients and assist physicians through the use of big data in healthcare. This study was conducted to explore how and why consumers’ intention to comply with medical prescriptions differs when it is provided by an AI-powered software versus a human physician. Specifically, we classified the level of physical risk patients could encounter into two categories, high and low. Then we investigated the effects of medical providers' type (human physician versus AI-powered software) on patient compliance under the two different levels of potential physical risk. In Experiment 1, assuming a cardiovascular disease scenario, it is revealed that patient compliance was lower when the medical service provider was an AI-powered software rather than a human physician, which was mediated by patients’ trust. In Experiment 2, it was confirmed that patients’ inhibition from complying with AI-powered software occurs equally in other diseases (e.g., spinal disc herniation). In addition, the interaction between the patients’ physical risks and the medical service provider was identified. When the physical risk is high, patients' compliance with AI-powered software (vs. human physician) was lower. Yet, when the physical risk is low, the type of medical service provider did not significantly affect patient compliance, which indicates an interaction effect. In Experiment 3, the interaction between physical risk and the types of medical service provider was confirmed repeatedly, which was revealed to be mediated by trust. This study investigated the relationships among key variables that affect patient compliance in the context of healthcare service from multiple perspectives. Thus, this study provides practical implications for medical institutions and healthcare service providers in regards to when and how to utilize medical AI.

내가 찾은 최근 검색어

최근 열람 자료

맞춤 논문

보관함

내 보관함
공유한 보관함

1:1문의

닫기