Export this record: EndNote BibTex

Please use this identifier to cite or link to this item: https://tede2.pucrs.br/tede2/handle/tede/9534
Full metadata record
DC FieldValueLanguage
dc.creatorSilveira, Paulo Antônio Caliendo Velloso da-
dc.creator.Latteshttp://lattes.cnpq.br/9047483160060734por
dc.contributor.advisor1Souza, Draiton Gonzaga-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/7787208699557169por
dc.date.accessioned2021-04-13T12:45:30Z-
dc.date.issued2021-01-26-
dc.identifier.urihttp://tede2.pucrs.br/tede2/handle/tede/9534-
dc.description.resumoA presente Tese pretende verificar e assumir a possibilidade filosófica do surgimento de um agente moral artificial autêntico. Toma-se como pressuposto a plausibilidade da superação do Teste de Turing, da Sala Chinesa e do Teste de Ada Lovelace, bem como da possível emergência de um autêntico agente artificial moral, com deliberações intencionais em perspectiva de primeira pessoa. Assim, aceita-se a tese da possibilidade de um código computacional capaz de dar origem à emergência. O problema principal deste estudo será investigar a possibilidade filosófica de uma ética artificial, como decorrente da vontade e racionalidade própria de um sujeito artificial, ou seja, da inteligência artificial como sujeito moral. Um agente ético artificial deve agir por características próprias e não conforme uma programação externa predeterminada. A ética artificial autêntica é interna e não externa ao autômato. Um modelo proposto e com crescente aceitação, e que demonstra essa possibilidade computacional, é o de uma moralidade que se constrói de baixo para cima (bottom-up), e nesse caso o sistema pode passar a adquirir capacidades morais de modo independente. Esse modelo se aproxima da ética aristotélica das virtudes. Outra forma possível é a união de um modelo computacional de piso, com modelos fundados na deontologia, com a formulação mais geral de deveres e máximas. De uma outra forma, demonstra-se que pelo menos em um caso é possível a construção de um modelo de moralidade artificial viável e autônomo. Não há demonstração inequívoca da impossibilidade de os agentes morais artificiais possuírem emoções artificiais. A conclusão a que diversos cientistas de programação chegaram é que um modelo de agência artificial fundado em machine learning, combinado com a ética da virtude, é um caminho natural, coeso, coerente, integrado e “bem costurado” (seamless). Assim, existe uma resposta coerente, consistente e bem fundamentada que indica que não é provada a impossibilidade de um agente moral artificial autêntico. Por fim, uma teoria ética responsável deve considerar a possibilidade concreta do surgimento de agentes morais artificiais completos (full moral agent) e todas as consequências desse fenômeno divisor na história da humanidade.por
dc.description.abstractThis Dissertation intends to verify and assume the philosophical possibility of the emergence of an authentic artificial moral agent. The plausibility of overcoming the Turing Test, the Chinese Room and the Ada Lovelace Test is taken as an assumption, as well as the possible emergence of an authentic artificial moral agent, with intentional deliberations from a first person perspective. Thus, the assumption of the possibility of a computational code capable of giving rise to the emergency is accepted. This study’s main problem will be to investigate the philosophical possibility of an artificial ethics, as a result of the will and rationality of an artificial subject, that is, of artificial intelligence as a moral subject. An artificial ethical agent must act on its own characteristics and not according to a predetermined external schedule. Authentic artificial ethics are internal and not external to the automaton. A model proposed and with increasing acceptance, which demonstrates this computational possibility, is that of a morality that is built from bottom-up, in which case the system can start to acquire moral capacities independently. This model comes close to the Aristotelian ethics of virtues. Another possible way is the union of a computational floor model, with models based on deontology, with the most general formulation of duties and maxims. In another way, it is demonstrated that it is possible to build a viable and autonomous model of artificial morality in at least one case. There is no clear demonstration of the impossibility for artificial moral agents to have artificial emotions. The conclusion reached by several programming scientists is that a model of artificial agency based on machine learning, combined with the ethics of virtue, is a natural, cohesive, coherent, integrated and seamless. Thus, there is a coherent, consistent, and wellfounded answer that indicates that an authentic artificial moral agent’s impossibility has not been proven. Finally, a responsible ethical theory must consider the concrete possibility of the emergence of complete artificial moral agents and all the consequences of this dividing phenomenon in human history.eng
dc.description.provenanceSubmitted by PPG Filosofia ([email protected]) on 2021-03-23T17:38:57Z No. of bitstreams: 1 PAULO_ANTÔNIO_CALIENDO_VELLOSO_DA_SILVEIRA_Tes.pdf: 1209777 bytes, checksum: 11c61d3f8f067df4f86953f3424687cc (MD5)eng
dc.description.provenanceApproved for entry into archive by Caroline Xavier ([email protected]) on 2021-04-13T12:33:52Z (GMT) No. of bitstreams: 1 PAULO_ANTÔNIO_CALIENDO_VELLOSO_DA_SILVEIRA_Tes.pdf: 1209777 bytes, checksum: 11c61d3f8f067df4f86953f3424687cc (MD5)eng
dc.description.provenanceMade available in DSpace on 2021-04-13T12:45:30Z (GMT). No. of bitstreams: 1 PAULO_ANTÔNIO_CALIENDO_VELLOSO_DA_SILVEIRA_Tes.pdf: 1209777 bytes, checksum: 11c61d3f8f067df4f86953f3424687cc (MD5) Previous issue date: 2021-01-26eng
dc.formatapplication/pdf*
dc.thumbnail.urlhttp://tede2.pucrs.br:80/tede2/retrieve/180273/TES_PAULO_ANTONIO_CALIENDO_VELLOSO_DA_SILVEIRA_CONFIDENCIAL.pdf.jpg*
dc.thumbnail.urlhttp://tede2.pucrs.br:80/tede2/retrieve/180732/TES_PAULO_ANTONIO_CALIENDO_VELLOSO_DA_SILVEIRA_COMPLETO.pdf.jpg*
dc.languageporpor
dc.publisherPontifícia Universidade Católica do Rio Grande do Sulpor
dc.publisher.departmentEscola de Humanidadespor
dc.publisher.countryBrasilpor
dc.publisher.initialsPUCRSpor
dc.publisher.programPrograma de Pós-Graduação em Filosofiapor
dc.rightsAcesso Abertopor
dc.subjectÉticapor
dc.subjectInteligência Artificialpor
dc.subjectTeorias Moraispor
dc.subjectAgentes Morais Artificiaispor
dc.subject.cnpqCIENCIAS HUMANAS::FILOSOFIApor
dc.titleÉtica e inteligência artificial : da possibilidade filosófica de agentes morais artificiaispor
dc.typeTesepor
dc.restricao.situacaoTrabalho será publicado como artigo ou livropor
dc.restricao.prazo06 mesespor
dc.restricao.dataliberacao13/10/2021por
Appears in Collections:Programa de Pós-Graduação em Filosofia

Files in This Item:
File Description SizeFormat 
TES_PAULO_ANTONIO_CALIENDO_VELLOSO_DA_SILVEIRA_COMPLETO.pdfPAULO_ANTONIO_CALIENDO_VELLOSO_DA_SILVEIRA_TES1.18 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.