이슈논문

Data Report>이슈논문

이슈 키워드 논문 TOP10

이슈논문
| | | | 다운로드

KCI등재

1도덕행위자로서 생태 인공지능

저자 : 김진선 ( Kim Jin Sun ) , 신진환 ( Shin Jin Hwan )

발행기관 : 한국윤리학회 간행물 : 윤리연구 137권 0호 발행 연도 : 2022 페이지 : pp. 217-235 (19 pages)

다운로드

(기관인증 필요)

초록보기

기술적 탁월성은 윤리적 탁월성과 상통하는 면이 있다. 인공지능이 인간의 이익을 실현하려는 목적을 충실히 달성할 때 그것은 기술적으로도 탁월하며 윤리적으로도 탁월하다. 그러나 이것만으로는 인공지능이 생태적 지위를 갖는다고 말하는 데 부족함이 있다. 인공지능은 인간의 삶에서 더욱 다양한 역할을 맡고 적극적으로 활동함에 따라 생태계 구성원의 자격을 얻게 된다. 그 역할을 다하기 위해 인공지능은 어떤 방식으로든지 생태적으로 유의미한 성격과 특징을 갖추어야 한다. 다시 말해 인공지능은 도덕행위자이어야하며 그것의 존재 및 행위는 생태계의 보전과 개선에 유익한 것이어야 한다. 이와 같은 내용을 확증하기 위해 이 논문에서는 다음과 같은 점을 검토할 것이다. 첫째, 도덕행위자로서 인공지능의 특성은 어떠해야 하는가. 둘째, 인공지능은 진정으로 생태계 구성원일 수 있는가. 셋째, 인공지능의 생태적 특성 및 역할은 무엇인가. 이를 통해 인간은 물론 생태계의 다른 구성물과 공존하는 인공지능을 전망하고자 한다.


Technical excellence is synonymous with ethical excellence. When artificial intelligence fulfills its purpose of realizing human interests, it is technologically excellent and ethically excellent. However, this is not sufficient to say that AI gets an ecological status. When artificial intelligence takes on more diverse roles in human life with it and becomes more active, it can be a member of the ecosystem. In order to do that, AI must have ecologically meaningful personalities and characteristics. In other words, artificial intelligence should be a moral agent, and its existence and behavior should be beneficial to the conservation and improvement of the ecosystem. In order to confirm this content, this paper will present the following points. First, what should be the characteristics of artificial intelligence as a moral agent? Second, can AI truly be a member of an ecosystem? Third, what are the ecological characteristics and roles of AI? Through this, I want to show AI that coexists with not only humans but also other components of the ecosystem.

KCI등재

2인공지능을 통한 ATO 기획체계 발전: 전투계획 자동화를 중심으로

저자 : 정영주

발행기관 : 한국국방연구원 간행물 : 국방정책연구 136권 0호 발행 연도 : 2022 페이지 : pp. 125-156 (32 pages)

다운로드

(기관인증 필요)

초록보기

This study explores a lagged Air Tasking Order(ATO) planning cycle, resulting from AirLand Battle and propose the development of ATO Planning system. The 72-hour ATO planning process is suitable for linear battles of conventional wars. In the dynamic operational environment of modem warfare, the planning cycle, which takes three days, has critical limitations on agile response to adversary maneuver. This paper argues that if combat plans is automated with artificial intelligence, the ATO planning process can be drastically shortened. The paper, as a conceptual analysis framework for understanding this, proposes an centripetal decision-making cycle(Centripetal OODA Loop). Artificial intelligence will greatly contribute to enabling mission command pursued in joint all domain operations (JADO) and maximizing the synergy effect or jointness.

다운로드

(기관인증 필요)

초록보기

Artificial intelligence and big data are the core technologies of the Fourth Industrial Revolution and are changing the landscape in many fields, including national defense. This study specifically describes the concept of predictive maintenance that can directly utilize artificial intelligence and bigdata, and uses the turbofan engine dataset and the bearing dataset among NASA data as its application methods. For predictive maintenance, sound predictive management is essential, and when artificial intelligence is properly used, it is possible to analyze vast amounts of data and make accurate predictions. In addition, future research directions for applying artificial intelligence and big data to the defense field in the future were presented.

KCI등재

4항만 운영시스템의 인공지능 로직 적용 방안 연구

저자 : 최용석 ( Choi Yong-seok )

발행기관 : 한국해운물류학회 간행물 : 해운물류연구 114권 0호 발행 연도 : 2022 페이지 : pp. 101-118 (18 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 항만의 운영시스템을 대상으로 운영의 개선 및 생산성 향상을 위해 적용이 필요한 인공지능 로직의 적용방안에 대해서 적용의 우선순위를 분석하여 컨테이너터미널 운영 효율화를 위한 방안을 도출하고자 하였으며, 연구의 목표를 달성하기 위해 운영시스템 세부 개술들에 대한 필요 요인들을 도출하고 평가하였다. AHP를 통한 분석 결과는 1계층에서 야드시스템, 안벽시스템, 하역장비, 정보시스템의 순으로 중요도가 나타났다. 2계층 평가에서는 선석계획, 야드계획, 이송차량 풀링, 안벽 크레인 스케줄링, 야드크레인 스케줄링 순으로 중요도가 높게 나타났으며, 야드시스템평가에서는 야드계획, 이송차량 풀링, 야드크레인 스케줄링 순으로 나타났다. 환산 가중치를 이용한 종합평가 결과는 선석계획이 1위, 야드계획이 2위, 이송차량 풀링이 3위로 중요도가 높게 나타났다.


This study analyzes the priority of application of artificial intelligence logic, which needs to be applied to improve operation and productivity, to derive measures for efficient operation of container terminals. In order to achieve the goal of the study, necessary factors for detailed outline of the operating system were derived and evaluated. The analysis results through AHP showed importance in the order of yard system, berth system, stevedoring equipment, and information system in the first tier. In the second-tier evaluation, berth planning, yard planning, transport vehicle pooling, quay crane scheduling, and yard crane scheduling were of high importance in the order of yard planning, transport vehicle pooling, and yard crane scheduling. As a result of the comprehensive evaluation using the converted weight, the berth planning ranked first, the yard planning ranked second, and the transport vehicle pooling ranked third, showing high importance.

KCI등재

5과실책임에 의한 인공지능 오류사고 규율가능성

저자 : 김진아 ( Kim Jinah )

발행기관 : 고려대학교 법학연구원 간행물 : 고려법학 105권 0호 발행 연도 : 2022 페이지 : pp. 81-127 (47 pages)

다운로드

(기관인증 필요)

초록보기

인공지능 오류사고는 인공지능을 이용하는 한 피할 수 없는 문제이다. 인공지능을 작동시키는 알고리즘이 귀납적 방식으로 개발되기 때문이다. 이러한 인공지능 오류사고를 어떠한 귀책원리로 규율해야 하는지에 관한 연구가 활발하다. 그중 적지 않은 연구가 인공지능 오류사고에서는 과실 인정이 어렵다는 등의 이유로, 그에 대한 무과실책임을 주장한다. 이 논문은 이에 대한 비판적 태도에서, 현재 나타나고 있고 가까운 장래에 나타날 것으로 예상되는 인공지능(약한 인공지능)에 집중하여, 인공지능 오류사고를 과실책임으로 규율할 수 있음을 논증하였다. 구체적으로 말하면, 이 논문은 인공지능 오류사고 손해배상책임에 대해 과실 판단을 중심으로 크게 세 가지 쟁점을 다루었다. 첫 번째 쟁점은 ‘주의의무 판단’이다. 어떠한 위험방지조치가 주의의무로 인정되기 위해서는 ① ‘예견가능성’과 ② ‘회피가능성’이 필요하다. 법은 불가능한 것을 요구할 수 없기 때문이다. ① 예견가능성 판단의 핵심적인 문제는 무엇에 대한 예견가능성인지, 즉 예견가능성 ‘대상’을 판단하는 문제이다. 이 논문은 예견가능성 ‘대상’은 피해자가 주장하는 위험방지조치 내용의 구체성에 비례하여 정해진다는 판단기준을 제시하였다. 이를 위해 예견가능성 대상에 관한 학계의 논의와 판례의 태도 등을 살펴 기초논의를 진행하고, 불법행위법의 목적에 부합하고 예견가능성의 본질적 역할에 맞는 방향으로 예견가능성 대상에 관한 판단기준을 정립하였다. 나아가 판단기준을 구체화하기 위해, 서빙로봇의 구체적 오류사고를 가정하여 그 상황에서 예견가능성 대상이 어떻게 판단되는지를 논하였다. 만약 ② 예견가능성이 긍정되면 회피가능성에 대한 판단이 필요한데, 이는 비용편익기준, 즉 위험방지조치를 함으로써 희생되는 이익(비용)과 증진되는 이익(편익) 간의 비교형량을 통하여 판단될 수 있다. 이런 차원에서 이 논문은 인공지능 오류사고에서의 비용과 편익의 크기를 가늠하는 데 있어서 고려할 필요가 있는 주요요소를 제시하였다. 그리고 이러한 비용과 편익의 크기를 비교하는 것은 상당한 난도가 있는바, 외적으로 드러난 고려요소인 관행, 기술수준, 공법상 규제 등을 통하여 비용편익기준을 보완할 필요가 있음을 지적하였다. 두 번째 쟁점은 ‘위험방지조치의 구체화’이다. 이를 위해 이 논문은 실제 발생한 오류사고 등을 기반으로 인공지능 오류사고를 6가지 유형으로 구분하고, 국내외 법률, 법안, 윤리 등을 고찰하여 각 유형별로 개발자 또는 이용자가 할 수 있는 위험방지조치가 구체적으로 무엇인지에 대해 분석하였다. 즉, 개발자 또는 이용자의 주의의무로 인정될 개연성이 높은 위험방지조치를 ‘잘못된 입력값 투입’에 의한 오류사고, ‘불완전한 알고리즘’에 의한 오류사고, ‘외부 공격’에 의한 오류사고, ‘재발방지 미흡’에 의한 오류사고, ‘오용’에 의한 오류사고, ‘불완전한 오류대처’에 의한 오류사고 등 6가지 유형의 인공지능 오류사고별로 제시하였다. 세 번째 쟁점은 ‘과실의 증명’이다. 인공지능 오류사고 피해자는 개발자에 비하여 낮은 수준의 전문지식과 적은 양의 정보를 보유하고 있어 과실 증명에 상당한 어려움을 겪을 수 있다. 이에, 이 논문은 피해자에게 개발자의 과실을 직접적으로 증명하도록 요구하는 대신에, ‘그 오류사고가 개발자의 과실 없이는 통상 발생하지 아니한다는 사정’, 달리 말하면 ‘개발자의 과실이 있었을 개연성이 높은 사고상황’에 대한 증명을 통하여 과실을 사실상 추정하도록 하여(간접사실의 증명), 피해자의 증명책임을 완화할 필요가 있다고 주장하였다. ‘개발자의 과실이 있을 개연성이 높은 사고상황’의 예로는, 오류사고가 인공지능이 직면할 것으로 전형적으로 예상되는 상황에서 발생한 경우를 들 수 있다. 개발자는 인공지능이 처할 것으로 예상되는 전형적 상황을 학습시키고, 그러한 상황에서 정확한 판단을 내리는지 검증할 것이 일반적으로 기대되기 때문이다. 따라서 이러한 전형적 상황에서 오류사고가 발생하였다는 것은, 개발자의 주의의무로 인정될 개연성이 높은 위험방지조치(인공지능이 직면할 것으로 전형적으로 예상되는 상황을 학습시키는 것 등)를 충분히 하지 않았다는 것으로 해석될 수 있다. 이상과 같은 연구결과는 인공지능 일반을 다루고 있어 개별 인공지능의 특수성을 고려하지 못하였다는 등의 한계가 있지만, 현재 나타나고 있고 가까운 장래에 나타날 수 있는 약한 인공지능에 공통으로 적용될 수 있다. 따라서 인공지능 오류사고로 발생한 손해를 귀속시키는 법리를 발전시키는 데 조금이나마 도움이 되기를 기대하여 본다.


Accidents arising from errors in weak artificial intelligence (hereinafter “AI”) are considered unavoidable as long as AI is in use. The further the areas in which AI is applied extend, the more important the issue of attributing liability for damages from AI errors becomes. At the core of this issue is the determination of ‘negligence’. This thesis aims to deal with liability for damages from AI errors, with a particular focus on the determination of negligence. This thesis mainly deals with three issues regarding the determination of negligence. The first issue is the ‘determination of the duty of care’. For a risk prevention measure to be recognized as fulfilling the duty of care, ① ‘foreseeability’ and ② ‘avoidability’ are necessary. ① The key to determining foreseeability is to identify the ‘subject’ of foreseeability. This thesis presents a criterion for determining the subject of foreseeability - that the subject of foreseeability is determined according to the specificity of the risk prevention measure called for by the aggrieved. As a basic study for presenting such a criterion, this thesis reviews the related debates within academia and the tendencies of court decisions regarding the subject of foreseeability. Then, in order to examine the specific applicability of the criterion, this thesis hypothesizes an incident involving an error in a serving robot to examine how the subject of foreseeability could be determined in such a situation. ② Once foreseeability is established, avoidability needs to be determined. Avoidability can be determined using cost-benefit criteria. In other words, it can be determined through a balancing test between the interests that are sacrificed (costs) and the interests that are promoted (benefits) by a risk prevention measure. Thus, this thesis presents key factors that need to be considered in measuring the scale of the costs and the benefits related to an incident involving an AI error. However, it is difficult both to measure the absolute scale of costs and benefits and to compare their relative scales. Therefore, it is necessary to supplement the cost-benefit criteria with external factors to be considered, such as customary practices, technology level, and regulation by public law, etc. The second issue is the ‘development of specific risk prevention measures’, which must be discussed preemptively in order to improve the accident prevention effect and to minimize unnecessary lawsuits. Against this backdrop, this thesis classifies accidents involving an AI error into six categories based on actual accidents and attempts to develop specific risk prevention measures that developers or users can take. To begin with, this thesis reviews the laws, legislative bills, and ethical standards at home and abroad in order to identify the proper direction and then analyzes several leading risk prevention measures. Then, it proposes risk prevention measures for developers and users to prevent the six respective types of AI error accidents. The third issue is the ‘proof of negligence’. People aggrieved by AI error accidents may encounter significant difficulties in proving negligence due to the relatively low level of related professional knowledge and insufficient data compared to those of developers. This thesis argues that it is necessary to alleviate the victim’s burden of proof by allowing for deemed negligence by way of proving a ‘situation in which the developer is likely to have committed negligence (proof of indirect facts). In proving indirect facts, the operation record of AI is likely to be used as key evidence. However, if the victim does not possess the operation record, some legal means are required so as to secure this record. Nevertheless, the evidence collection rules under the current laws have their limitations in that they are not effective. This thesis emphasizes the necessity to supplement these through legislative efforts. After touching upon the determination of negligence in AI error accidents centering on these three issues, this thesis deals with the legal grounds for liabilities for compensation. In particular, it examines the application of general tort, product liability, and structure liability as well as the possibility of analogical applications of supervisor liability, vicarious liability, and animal possessor’s liability. It then draws the conclusion that a person aggrieved by an AI error accident may seek compensation based on general tort, product liability (in the case where AI is installed on hardware), and structure liability (in the case where AI is installed on a structure).

KCI등재

6법조 분야 인공지능 기술의 도입을 위한 고려 시항 - 상표 유사도 평가의 경우를 사례로

저자 : 남구현 ( Koo Hyun Nam )

발행기관 : 고려대학교 법학연구원 간행물 : 고려법학 105권 0호 발행 연도 : 2022 페이지 : pp. 129-159 (31 pages)

다운로드

(기관인증 필요)

초록보기

사회의 여러 분야에 인공지능 기술이 도입되어 긍정적인 성과를 도출하고 있고, 법조 분야도 예외가 되어서는 안 된다는 의견이 늘어나고 있다. 인공지능 기술이 최선으로 기능하기 위해서는 사용 환경과 목적, 조건에 적합하도록 설계하고 개발, 사용되어야 한다. 따라서 법조 분야에 특정 인공지능 기술의 도입을 위해서는 그 기술이 법조 분야 및 사법 제도의 여러 가지 특성에 부합하는지 면밀한 검토가 필요하다. 인공지능 기술은 응당 효율성이 존재 이유며, 특히 아직까지 대중의 심리적 저항감이 큰 법조 분야에서는 더욱 높은 수준의 효율성 확보가 기술 도입을 위한 하나의 중요한 검토 요소가 되어야 한다. 이와 함께, 법조 분야의 특성을 고려하여 운용의 안정성과 도출 결과의 신뢰성이라는 기술적 요소, 그리고 명확성 및 적정성의 법리적 요소도 검토 대상이 되어야 한다. 이 중에서 비교적 직관적으로 평가될 수 있는 요소들과 차별되는 성질인 신뢰성의 경우, 인공지능 기술이 결국 연산 결과를 기반하고 있으므로 그 과정과 결과의 객관성이 평가 기준으로 고려되어야 한다. 상표권 침해 판단의 유사도 평가 사례에서는 일반적 인공지능 기술이 도출하는 결과의 객관성 결여로 인해 신뢰성이 부족하다 분석되지만 이를 제고할 수 있는 기술적 보완의 가능성을 보기도 하였다. 이러한 논의를 통해 미래 법조 분야에 최적의 인공지능 기술을 도입할 수 있는 사회적 역량을 기를 수 있을 것이라 기대한다.


In a variety of fields of our society, artificial intelligence has been introduced and drawn positive outcomes, and the opinion that the field of legal practice should not be an exception has been emerging. For the artificial intelligence to perform at its best, it is required that design, development, and operation of the system must reflect the environment, purpose, and condition of the application. Thus, in-depth consideration to determine whether a certain artificial intelligence technology coincides with the characteristics of the field of legal practice and judicial system is necessary to introduce such artificial intelligence technology into the field of legal practice. It is certain for artificial intelligence technology that high efficiency is its reason for being, and especially in the field of legal practice in which psychological resistance is yet high against it, demonstration of higher efficiency should be one of the factors to be considered for the introduction of the technology. In addition, keeping in mind the characteristics of the legal field, technical factors including stability of operation and reliability of decision making and legal factors such as definiteness (non-vagueness) and propriety are required to be considered. Among the factors, the reliability factor is unlikely verified intuitively due to its discriminating characters compared to the others; objectivity of the results and the process to achieve the outcomes is to be considered as a valuation basis because the fundamental of artificial intelligence rooted on the result of calculations. In the case of similarity evaluation of trademark infringement, the objectivity of the outcomes produced by general, commonly known artificial intelligence technology was considered not to reach to the level of public standard; thus, it was analyzed that it lacks reliability. However, at the same time, the chance for technical supplementation were also observed. It is expected that this kind of discussion will cultivate social competences required to select and introduce the best performing artificial intelligence in the field of future legal practice.

KCI등재

7인공지능시대 인간의 지위에 대한 인간학적 해명

저자 : 임채광 ( Lim Chai-kuang )

발행기관 : 한국동서철학회 간행물 : 동서철학연구 105권 0호 발행 연도 : 2022 페이지 : pp. 653-674 (22 pages)

다운로드

(기관인증 필요)

초록보기

게엘렌이 ‘기술’을 신체적 결핍을 강화, 보완 더 나아가 부담면제 기능을 감당하는 수단으로 규정했고, 실제로 오랜 세월 기술적 도구들이 인간의 생물학적 결핍성을 보완, 대체하는 역할을 수행해 왔듯이 컴퓨터 및 인공지능은 뇌 및 정신적 영역의 보완과 대체수단으로 활용되고 발전해오고 있다. 연산 기능과 정보의 저장력, 언어적 전환능력 등 기술적 대체효과가 큰 부분이 늘어나고 있으나 ‘사유능력’과 같이 정신기능의 온전한 대체가 불가능한 영역이 존재하는 것도 사실이다. 사유할 수 있다는 점과 사유할 수 있는 것과 같은 결과를 도출해 낸다는 점은 전혀 다르기 때문이다. 인공지능은 오히려 낯선 권력과 자본의 효과적 도구로서 개인과 사회를 억압하고 소외시키고 있다: ①개인의 인격과 개별성을 억압하는 방향으로 발전, 적용되고 있다. ②실용주의와 경제적 가치가 무분별하게 확장되고 있다.③인간의 존엄성은 사라지고 권력과 욕망의 표출수단으로 전락하고 있다. SF영화에서 예견하고 있는 비극적인 미래를 맞지 않기 위해 우리는 일상 속에서 ‘인간다움’의 발굴과 회복, 더 나아가 건전하고 민주적인 사회의 구축을 위한 교육과 제도적 장치의 마련이 요청된다.


Gehlen defined ‘technology’ as a means of reinforcing and supplementing physical deficiencies, and furthermore, performing burden-free functions. In fact, just as technological tools have played a role in complementing and replacing human biological deficiencies for a long time, computer and artificial intelligence have been utilized and developed as complementary and alternative means for the brain and mental areas. Although the number of technological substitution effects such as computational functions, information storage capacity, and verbal conversion ability are increasing, it is also true that there are areas where mental functions cannot be completely replaced, such as ‘thinking ability’. Rather, artificial intelligence is oppressing and alienating individuals and society as an effective tool of unfamiliar power and capital: ① It is developed and applied in the direction of suppressing individual personality and individuality. ② Pragmatism and economic value are expanding indiscriminately. ③ Human dignity is disappearing and it is reduced to a means of expression of power and desire. In order not to face the tragic future predicted by sci-fi movies, it seems urgent for us to discover and restore 'humanity', and furthermore, to prepare educational and institutional devices for building a sane and democratic society.

KCI등재

8중국의 인공지능 역량 강화와 안보 위협

저자 : 김진용 ( Kim Jinyong )

발행기관 : 서강대학교 동아연구소 간행물 : 동아연구 82권 0호 발행 연도 : 2022 페이지 : pp. 1-37 (37 pages)

다운로드

(기관인증 필요)

초록보기

이 연구는 중국의 인공지능 역량 강화가 안보 위협으로 이어질 수 있는지를 규명했다. 현재 중국은 인공지능 분야에 막강한 자본과 정책 지원, 그리고 우수한 연구 환경을 기반으로 세계 최강의 미국을 빠르게 추격하고 있다. 이런 상황에서 시진핑 지도부는 인공지능을 ‘신형군사공격역량(新型军事打击力量)’으로 규정해, 군사 목적으로 이용할 것을 계획하고 있다. 또 중국은 인공지능을 활용한 군사 지능화(军事智能化)를 시도함으로써, 거리낌 없이 군사 영역에 적용하고 있다. 궁극적으로 중국은 미래의 지능화 전쟁에 대비해 인공지능을 활용한 강력한 군사 역량을 구축할 것이다.


This study examined whether China's strengthening artificial intelligence (AI) capabilities could become a threat Currently, China is rapidly catching up with the level of AI technology of the world’s hegemon, the United States, based on its strong capital foundation, policy support, and outstanding research environment. In this situation, the Xi Jinping administration is planning to utilize AI for military purposes, as AI is believed to be a “new type of military strike force(新型军事打击力量).” Moreover, China is openly applying AI technology in the military sector in an attempt to drive military intelligentizatio(军事智能化) of its armed forces. Ultimately, in preparation for future intelligentized warfare, China will establish strong military capabilities using AI.

KCI등재

9도덕과 교육에서 인공지능 활용 전망 연구 - 개념 분석 수업모형 적용을 중심으로 -

저자 : 이한진 ( Lee Han-jin )

발행기관 : 한국초등도덕교육학회 간행물 : 초등도덕교육 79권 0호 발행 연도 : 2022 페이지 : pp. 319-351 (33 pages)

다운로드

(기관인증 필요)

초록보기

본 논문은 최신 인공지능 기술이 도덕과 교육에서 어떻게 활용될 수 있을지에 대한 전망을 살펴보는 데 목적이 있다. 이를 위해 개념 분석 수업모형을 중심으로 인공지능이 도덕과 수업에 제공할 수 있는 이점을 탐색하고, 개념 분석과 도덕과 교육에 유용한 인공지능 기술로서 빅데이터와 데이터 마이닝(data mining), 머신러닝(machine learning)과 강화 학습, 협업 필터링(collaborative filtering)에 대해서 조명한다. 인공지능은 개별 맞춤형 지도의 실현이라는 순기능도 있지만, 데이터 편향으로 인한 교육 실패, 관계 역량의 상실, 교육의 형평성 문제라는 역기능도 출현할 수 있다. 이에, 교사들은 인공지능 교육 시대에 대비하여 인공지능에 대한 소양을 쌓고, 학생의 학습효과를 높이기 위해서 인공지능과 협업할 수 있어야 한다.


The purpose of this paper is to examine the prospects of how the latest artificial intelligence technology can be used in moral subject education. To this end, we explore the benefits that artificial intelligence can provide to moral subject class centering on the conceptual analysis class model, and as an artificial intelligence technology useful for conceptual analysis and moral subject education, big data and data mining, machine learning and reinforcement learning, collaborative filtering. Artificial intelligence has a positive function of realizing individually tailored guidance, but it may also have adverse functions such as educational failure due to data bias, loss of relationship capacity, and education equity problem. Accordingly, teachers should be able to collaborate with AI in order to build knowledge about AI in preparation for the AI education era, and to increase the learning effect of students.

KCI등재

10도덕 교육에서 인공지능 예술 작품의 활용 가능성 탐색

저자 : 이두연 ( Lee Doo Yeon )

발행기관 : 한국초등도덕교육학회 간행물 : 초등도덕교육 78권 0호 발행 연도 : 2022 페이지 : pp. 209-231 (23 pages)

다운로드

(기관인증 필요)

초록보기

본 연구는 미래의 인공지능이 피카소의 그림이나 모차르트의 음악과 같은 예술 작품을 능가하는 작품을 창작할 수 있는 능력을 갖출 수 있는가라는 질문에서 논의가 출발하였다. 만약 인공지능 예술 작품이 인간에게 미적 경험을 제공한다면, 미래 사회의 도덕 교육에서 그것이 중요한 교수·학습 자료의 하나로 기능할 수 있다고 판단했기 때문이다. 따라서 본 연구에서는 인공지능 예술 작품을 감상하고 경험하는 과정에서 인공지능 시스템이 만들어 낸 예술 작품이 인간의 예술 작품과 마찬가지로 미적 경험을 제공할 수 있는지, 혹 인공지능 예술 작품이 인간의 예술 작품을 감상할 때의 미적 경험을 넘어서는 새로운 차원의 미적 경험을 제공할 수 있는지 등을 알아보고자 하였다. 이에 본 연구는 창조적 적대 신경망을 이용한 인공지능 예술 작품의 수준이 현재 어느 단계에까지 이르렀는지를 살펴보고, 그것이 인간에게 미적 경험을 제공할 수 있는지 여부를 우선 고찰해 보았다. 그리고 이러한 이론적 내용에 기반하여 인공지능 예술 작품을 왜 도덕교육에서 활용할 필요가 있는지를 확인해 봄으로써 도덕 교육에서 인공지능 예술 작품의 활용 가능성을 살펴보았다.


This study started with the question of whether artificial intelligence in the future could have the ability to create works that surpassed works of art such as Picasso's paintings or Mozart's music. This is because, if AI art works provide aesthetic experiences to humans, it can function as one of the important teaching and learning materials in the moral education of the future society. Therefore, in this study, in the process of appreciating and experiencing artificial intelligence art works, we investigated whether the art works created by the AI system could provide an aesthetic experience just like human art works, or whether AI art works can appreciate human art works. The purpose of this study was to investigate whether it can provide a new level of aesthetic experience that goes beyond the aesthetic experience of making a living room. Therefore, this study looked at the level of AI art work using Creative Adversarial Network to what stage it has reached, and first considered whether it can provide an aesthetic experience to humans. And by examining why it is necessary to use artificial intelligence art works in moral education based on these theoretical contents, the possibility of using artificial intelligence art works in moral education was examined.

내가 찾은 최근 검색어

최근 열람 자료

맞춤 논문

보관함

내 보관함
공유한 보관함

1:1문의

닫기