<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.0 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.0/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.0" specific-use="sps-1.8" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">derecho</journal-id>
			<journal-title-group>
				<journal-title>Derecho PUCP</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Derecho</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="epub">2305-2546</issn>
			<issn pub-type="ppub">0251-3420</issn>
			<publisher>
				<publisher-name>Pontificia Universidad Católica del Perú - PUCP</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.18800/derechopucp.202302.007</article-id>
			<article-id pub-id-type="publisher-id">00007</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Miscelánea</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Descripción de los riesgos y desafíos para la integridad académica de aplicaciones generativas de inteligencia artificial<xref ref-type="fn" rid="fn1"><sup>*</sup></xref>
				</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>Risks and Challenges Posed by Artificial Intelligence Generative Applications for Academic Integrity</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0003-0907-5714</contrib-id>
					<name>
						<surname>Navarro-Dolmestch</surname>
						<given-names>Roberto</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
					<xref ref-type="fn" rid="fn2"><sup>**</sup></xref>
				</contrib>
			</contrib-group>
				<aff id="aff1">
					<label>1</label>
					<institution content-type="original">Universidad Católica del Maule - Chile, ronavarro@ucm.cl</institution>
					<institution content-type="normalized">Universidad Católica del Maule</institution>
					<institution content-type="orgname">Universidad Católica del Maule</institution>
					<country country="CL">Chile</country>
					<email>ronavarro@ucm.cl</email>
				</aff>
			<!--<pub-date date-type="pub" publication-format="electronic">
				<day>29</day>
				<month>11</month>
				<year>2023</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">-->
				<pub-date pub-type="epub-ppub">
				<season>Jul-Dec</season>
				<year>2023</year>
			</pub-date>
			<issue>91</issue>
			<fpage>231</fpage>
			<lpage>270</lpage>
			<history>
				<date date-type="received">
					<day>20</day>
					<month>03</month>
					<year>2023</year>
				</date>
				<date date-type="accepted">
					<day>20</day>
					<month>06</month>
					<year>2023</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access" xlink:href="https://creativecommons.org/licenses/by/4.0/" xml:lang="es">
					<license-p>Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons</license-p>
				</license>
			</permissions>
			<abstract>
				<title>Resumen</title>
				<p>Este artículo analiza, desde una perspectiva descriptiva y como apertura de una línea de investigación, el impacto que las tecnologías de inteligencia artificial generativas (IAG) pueden representar para la integridad académica, materializado en la actividad docente y en los procesos de evaluación en la enseñanza universitaria del derecho. El artículo toma como premisa la definición de la integridad académica como un conjunto de valores y sostiene que de la IAG surgen una serie de riesgos que amenazan dichos valores, como la excesiva dependencia y confianza en la IAG, la irrealizabilidad del proyecto pedagógico y la pérdida de competitividad de las instituciones educativas, entre otros. Para minimizar o anular tales riesgos y, de esa forma, impedir que ellos se concreten en afectaciones a la integridad académica, se identifican cuatro medidas de mitigación para ser aplicadas en entornos universitarios.</p>
			</abstract>
			<trans-abstract xml:lang="en">
				<title><italic>Abstract</italic></title>
				<p>From the perspective of a descriptive analysis, and as a starting point to a new research line, this paper examines the potential impact Generative Artificial Intelligence (GAI) technologies may have on academic integrity, manifested in the learning and evaluation processes of law classes at the university level. The article takes as its premise the definition of academic integrity as a set of values and argues that a series of risks arise from the GAI that threaten those values, such as excessive dependence and trust in the GAI, the unreallizability of the pedagogical project and the loss of competitiveness of educational institutions, among others. To minimize or nullify such risks, and thus prevent them from affecting academic integrity, four mitigation measures are identified to be applied in university environments.</p>
			</trans-abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>Integridad académica</kwd>
				<kwd>inteligencia artificial</kwd>
				<kwd>generación automática de texto</kwd>
				<kwd>chatbot</kwd>
				<kwd>ChatGPT</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title><italic>Keywords:</italic></title>
				<kwd>Academic integrity</kwd>
				<kwd>artificial intelligence</kwd>
				<kwd>automatic text generation</kwd>
				<kwd>chatbot</kwd>
				<kwd>ChatGPT</kwd>
			</kwd-group>
			<counts>
				<fig-count count="3"/>
				<table-count count="0"/>
				<equation-count count="0"/>
				<ref-count count="139"/>
				<page-count count="40"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>I. INTRODUCCIÓN</title>
			<p>La inteligencia artificial (IA) es un conjunto heterogéneo de tecnologías que pretenden emular las capacidades humanas para el desarrollo de tareas que, hasta su surgimiento, eran propias y exclusivas de los seres humanos (<xref ref-type="bibr" rid="B1">Abbott y Sarch, 2019</xref>, p. 329; 2020, p. 179; <xref ref-type="bibr" rid="B12">Barfield y Pagallo, 2020</xref>, p. 1; <xref ref-type="bibr" rid="B54">Fierens <italic>et al</italic>., 2021</xref>, p. 51)<xref ref-type="fn" rid="fn3"><sup>1</sup></xref>. Tales capacidades se refieren, principalmente, a la percepción del mundo, la comprensión e interpretación de este, el raciocinio, la argumentación y la creatividad. Dentro de este contexto se inscribe la inteligencia artificial generativa (IAG), que es un enfoque tecnológico que consiste en «el aprendizaje por máquinas no-supervisado o semisupervisado para crear nuevo contenido, incluido, pero no limitado, a imágenes digitales, vídeo, audio, texto o código» (<xref ref-type="bibr" rid="B75">Hu, 2022</xref>). Los modelos generativos «se definen como métodos o técnicas que son capaces de transformar información en código o un subconjunto de códigos desde el que se puede reconstruir la información» (<xref ref-type="bibr" rid="B4">Abukmeil <italic>et al.</italic>, 2021</xref>, p. 2). La IAG se ha desarrollado en torno a dos marcos preferentes: <italic>Generative Adversarial Network</italic> (GAN) (<xref ref-type="bibr" rid="B6">Albahar y Almalki, 2019</xref>, p. 3245; <xref ref-type="bibr" rid="B22">Caldera, 2019</xref>, p. 181; <xref ref-type="bibr" rid="B107">Raj <italic>et al.</italic>, 2022</xref>, p. 181) y <italic>Generative Transformer</italic> (<xref ref-type="bibr" rid="B35">Dale, 2021</xref>; <xref ref-type="bibr" rid="B75">Hu, 2022</xref>). El primero se puede emplear, por ejemplo, en la generación de imágenes y vídeos digitales, y, con ellos, en usos como las <italic>deepfakes</italic><xref ref-type="fn" rid="fn4"><sup>2</sup></xref>; el segundo, ha permitido desarrollar los chats conversacionales de generación de contenido como ChatGPT (Generative Pre-trained Transformer) de OpenAI o BERT (Bidirectional Encoder Representations from Transformers) de Google.</p>
			<p>Las tecnologías generativas -cuyo desarrollo fue posible gracias al avance en redes neuronales y aprendizaje automático (<italic>machine learning</italic>)- están diseñadas para ejecutar tareas que, generalmente, incluyen resumir o sintetizar textos, traducir automáticamente o generar diálogos, preguntas o paráfrasis; generar texto desde información numérica o estructurada (como tablas) o desestructurada; o generar texto desde multimodalidad, como la conversión de imágenes o vídeos en textos en lenguaje natural (<xref ref-type="bibr" rid="B10">Azaria, 2022</xref>; <xref ref-type="bibr" rid="B87">Li <italic>et al.</italic>, 2022</xref>) o viceversa. Dentro de esas tecnologías, los Modelos de Lenguaje (ML)<xref ref-type="fn" rid="fn5"><sup>3</sup></xref> son aplicaciones informáticas, que pueden estar basadas en IA y que generan contenidos expresados en imágenes digitales (fotografías o vídeos) o en lenguaje natural, esto es, de la misma forma en la que los seres humanos usamos el lenguaje; en este último caso, es difícil o prácticamente imposible para un lector humano determinar si un contenido fue generado por una máquina.</p>
			<p>En el caso de ChatGPT, uno de los ML más famosos y difundidos, el usuario puede entablar con la aplicación una interacción que emula una «conversación»; de ahí su descripción como «chat conversacional». En tal interacción, el usuario introduce un requerimiento (<italic>script</italic>) y obtiene una respuesta del chat, similar en forma y estructura a la que podría obtenerse de un interlocutor humano. ChatGPT es capaz no solo de incluir elementos de hecho y datos en sus respuestas, sino también de modificar sus respuestas sobre la base de nuevos <italic>inputs</italic> proporcionados por el usuario. La amplia difusión de esta aplicación, su inmediata disponibilidad para uso por cualquier usuario con conexión a internet y la generación de ingentes volúmenes de investigación sobre ella justifican que en este artículo me refiera principalmente a ChatGPT. No obstante, los riesgos que se identifican son válidos, en general, para las tecnologías y aplicaciones de generación automatizada de contenido digital. Si se busca ampliar el tema, <xref ref-type="bibr" rid="B62">Gozalo-Brizuela y Garrido-Merchán (2023</xref>) hacen una revisión sobre el estado del arte en materia de tecnologías generativas.</p>
			<p>Como generalmente ocurre con los avances tecnológicos, las aplicaciones generativas ofrecen innumerables ventajas<xref ref-type="fn" rid="fn6"><sup>4</sup></xref>; pero, a la vez, imponen desafíos y representan riesgos que hacen imprescindible conocer y gestionar adecuadamente tales herramientas. El nacimiento de tecnologías generativas basadas en IA ha provocado alarmas en el mundo académico, prediciéndose el fin de la docencia como la conocemos hoy (<xref ref-type="bibr" rid="B34">Crawford <italic>et al</italic>., 2023</xref>).</p>
			<p>Este artículo se presenta como una primera aproximación a su objeto de análisis y abre una nueva línea de investigación de mi parte. Por esa razón, debe ser visto como una exposición descriptiva del fenómeno y, a la vez, un intento de revisión de la literatura sobre la materia. En ese contexto, tiene como objetivos describir los riesgos que representa para la integridad académica el desarrollo de tecnologías generativas basadas en IA y proponer algunas medidas de mitigación que se pueden adoptar para hacer frente a tales riesgos. En términos de la relevancia para este estudio, las tecnologías de generación de texto son capaces no solo de generar <italic>abstracts</italic> o sintetizar fuentes bibliográficas, sino también de escribir ensayos, artículos o tesis. Además, tienen la capacidad de responder preguntas incluidas en un examen, ya sea que estas estén expresadas en formato de selección múltiple o de desarrollo. Se ha sostenido que ChatGPT «puede generar, incluso en su estado básico, estudios de investigación de apariencia plausible para revistas bien ranqueadas» (<xref ref-type="bibr" rid="B44">Dowling y Lucey, 2023</xref>).</p>
			<p>La enseñanza del derecho es especialmente vulnerable ante estas tecnologías. Los objetos de estudio de esta carrera se expresan en ideas abstractas que se fundamentan en datos de la realidad (como normas, evolución histórica de las instituciones, conflictos sociales, soluciones de aplicación de normas a hechos de la realidad, etc.). Ese escenario es propicio para el uso (y abuso) de tecnologías generativas. En consecuencia, el foco de este artículo estará puesto en la docencia universitaria en la carrera de Derecho; sin embargo, ello no obsta a que los problemas que aquí se describen pueden ser extrapolables a otras áreas del conocimiento. Además, esta contribución puede servir como base para una -a mi juicio- necesaria discusión sobre estas temáticas que debe verificarse en las universidades.</p>
			<p>En el apartado II expondré el contexto fáctico del objeto de estudio de este artículo, en el que haré una breve exposición sobre las aplicaciones de tecnologías algorítmicas de escritura y de generación de contenido, y los usos que puede dárseles en el ámbito del desempeño académico de estudiantes universitarios. El apartado III contiene una delimitación conceptual sobre la integridad académica con el objeto de precisar su contenido y, de esa forma, obtener elementos relevantes para el apartado IV. En este último hago una descripción de las conductas que se consideran disvaloradas desde la perspectiva de la integridad académica, distinguiendo entre plagio, suplantación de autoría y simulación de autoría. Asimismo, en el apartado V propongo una taxonomía de los riesgos que las tecnologías generativas representan para la integridad académica. Esta clasificación distingue entre riesgos procedimentales -excesiva dependencia y confianza en la AIG, irrealizabilidad del modelo pedagógico o formativo, e incorporación al aprendizaje de sesgos y discriminaciones- y riesgos de resultado -responsabilidad legal, aprendizaje distorsionado, sesos y discriminación, sobrecalificación infundada, pérdida de competitividad de la institución de educación superior, contaminación de la cultura académica y degradación del valor ético de la institución-. En el apartado VI propongo cuatro medidas de mitigación de los riesgos previamente identificados en el apartado V -adaptación de los marcos normativos universitarios, revaloración del pensamiento crítico, cambios en los paradigmas de docencia y evaluación, y cuestionamiento de los entornos pedagógicos asincrónicos y a distancia-. El apartado VII, por último, está destinado a las conclusiones.</p>
		</sec>
		<sec>
			<title>II. APLICACIONES DE GENERACIÓN AUTOMÁTICA DE LENGUAJE NATURAL</title>
			<p>Las tecnologías de IAG, capaces de generar contenidos en forma autónoma y sin intervención humana directa, han registrado un avance importante en la interrelación directa con las personas. Es posible augurar que el lanzamiento de ChatGPT o Chat Generative Pre-Trained Transformer en noviembre de 2022 (<xref ref-type="bibr" rid="B86">Li <italic>et al.</italic>, 2023</xref>), desarrollado por la empresa OpenAI y considerado «un gran avance en la tecnología de IA generativa» (<xref ref-type="bibr" rid="B48">Eke, 2023</xref>)<xref ref-type="fn" rid="fn7"><sup>5</sup></xref>, llegue a considerarse un hito en esta materia. ChatGPT es la aplicación con el crecimiento de consumidores más acelerado de la historia<xref ref-type="fn" rid="fn8"><sup>6</sup></xref>, con cien millones de usuarios registrados en dos meses desde su lanzamiento (<xref ref-type="bibr" rid="B69">Helberger y Diakopoulos, 2023</xref>)<xref ref-type="fn" rid="fn9"><sup>7</sup></xref>. Además, ha logrado atraer la atención de legisladores<xref ref-type="fn" rid="fn10"><sup>8</sup></xref>, medios de comunicación (<xref ref-type="bibr" rid="B35">Dale, 2021</xref>; <xref ref-type="bibr" rid="B58">García-Peñalvo, 2023</xref>), y académicos e investigadores, sobre todo en los aspectos éticos (<xref ref-type="bibr" rid="B61">Gordijn y Have, 2023</xref>). Recientemente, ChatGPT ha sido integrado con Bing, el motor de búsqueda de Microsoft, combinando las capacidades conversacionales con las de búsqueda en internet (Bing Chat); y se ha liberado una nueva versión: ChatGPT-4<xref ref-type="fn" rid="fn11"><sup>9</sup></xref>. ChatGPT no es el único chat conversacional (<xref ref-type="bibr" rid="B56">Floridi, 2023</xref>, p. 14)<xref ref-type="fn" rid="fn12"><sup>10</sup></xref>, pero su lanzamiento aceleró una carrera entre las empresas tecnológicas en la materia (<xref ref-type="bibr" rid="B74">Höppner y Streatfeild, 2023</xref>; <xref ref-type="bibr" rid="B106">Rahaman <italic>et al.</italic>, 2023</xref>)<xref ref-type="fn" rid="fn13"><sup>11</sup></xref>. </p>
			<p>ChatGPT es una herramienta capaz de procesar imágenes y lenguaje humano y de producir contenido. Es una interfaz conversacional en línea basada en un paradigma de modelo de generación de lenguaje preentrenado (<xref ref-type="bibr" rid="B121">Susnjak, 2022</xref>, p. 3; <xref ref-type="bibr" rid="B82">Kasneci <italic>et al.</italic>, 2023</xref>)<xref ref-type="fn" rid="fn14"><sup>12</sup></xref>. «Está diseñado para generar respuestas de texto similares a las humanas a la entrada del usuario en un contexto conversacional» (<xref ref-type="bibr" rid="B9">Aydin y Karaarslan, 2022</xref>, p. 22), con niveles crecientes de confiabilidad a medida que se va profundizando su entrenamiento, directamente proporcionales a la generalidad de la materia sobre la que se le consulte (<xref ref-type="bibr" rid="B104">Qin <italic>et al.</italic>, 2023</xref>). ChatGPT, de uso gratuito<xref ref-type="fn" rid="fn15"><sup>13</sup></xref> a través de internet<xref ref-type="fn" rid="fn16"><sup>14</sup></xref>, funciona gracias a algoritmos de <italic>deep learning</italic>, un tipo de IA. Tiene la habilidad de «comprender» las preguntas o requerimientos que se le formulen, encontrar patrones o relaciones generadas a partir de las enormes bases de datos con las que fue entrenado -y sigue siéndolo-<xref ref-type="fn" rid="fn17"><sup>15</sup></xref>, y construir una respuesta escrita con diferentes niveles de corrección y precisión.</p>
			<p>Desde la aparición pública de ChatGPT se han hecho estudios y ensayos que pretenden analizar la posibilidad de que dicha herramienta pueda generar textos académicos. Susnjak (2022) experimentó con diversas respuestas generadas por ChatGPT. Al analizarlas a la luz de los estándares intelectuales propuestos por <xref ref-type="bibr" rid="B100">Paul (2005</xref>), concluyó que las respuestas proporcionadas por el chat «pueden evaluarse como claras en la exposición, precisas con respecto a los ejemplos utilizados, relevantes para las preguntas formuladas y suficientemente profundas y amplias considerando las restricciones impuestas y lógicamente coherentes en textos más extensos» (p. 13). <xref ref-type="bibr" rid="B78">Jabotinsky y Sarel (2023</xref>) condujeron un experimento en el que requirieron a ChatGPT que generara texto, incluyendo referencias bibliográficas, sobre los riesgos de la IA en la producción científica. Los autores lograron determinar que el <italic>chatbot</italic> fue capaz de generar textos con sentido y bien escritos. Sin embargo, detectaron errores en las referencias bibliográficas proporcionadas (algunas de ellas, inexistentes) y destacaron que la información con la que ha sido entrenado solo comprende hasta 2021. A pesar de los defectos, los autores concluyen que ChatGPT tiene un potencial útil para la escritura académica. Asimismo, los autores sometieron a prueba a Bing y encontraron que este <italic>chatbot</italic> generó información menos específica y utilizó fuentes de información generales (como blogs) que no califican como fuentes válidas de información para un <italic>paper</italic> académico.</p>
			<p>
				<xref ref-type="bibr" rid="B18">Bommarito y Katz (2022</xref>) condujeron una evaluación experimental de ChatGPT-3 (la versión previa a ChatGPT) que consistió en aplicarle una prueba de acceso a la barra de abogados en Estados Unidos. Los autores descubrieron que el rendimiento de ChatGPT en resolver esos exámenes se ubicó muy por encima del margen de aleatoriedad en los resultados y que superó el porcentaje de aprobación en dos de las materias incluidas en la evaluación (derecho de daños y de evidencia). También hallaron que tuvo un rendimiento muy similar al de postulantes humanos. <xref ref-type="bibr" rid="B24">Carrasco <italic>et al.</italic> (2023</xref>) sometieron a ChatGPT al examen MIR 2022 en España y concluyeron que, de acuerdo con el puntaje obtenido en tal examinación, el <italic>chatbot</italic> de OpenAI podría «haber elegido múltiples especialidades en distintos hospitales a lo largo del Estado» español. <xref ref-type="bibr" rid="B29">Choi <italic>et al.</italic> (2023</xref>), haciendo un ensayo similar, determinaron que ChatGPT habría aprobado los exámenes finales de las cuatro asignaturas que incluyeron en su estudio, obteniendo una calificación C+ en todas ellas; y que «si dicho desempeño fuera constante en toda la carrera de derecho, las calificaciones obtenidas por ChatGPT serían suficientes para que se graduara».</p>
			<p>En el proceso de redacción de este artículo, desarrollé un pequeño ensayo solo para ilustrar el rendimiento de ChatGPT y sin pretender que sus resultados sirvan como evidencia porque no apliqué una metodología específica. Le formulé a ChatGPT sesenta de las preguntas del Modelo de Prueba PDT de acceso a las universidades chilenas para las asignaturas de Historia y Ciencias Sociales publicado por Demre, tal como aparecen escritas en el modelo. La aplicación reconoció el formato de selección múltiple de las preguntas, ya que en sus respuestas indicó cuál de las alternativas era la correcta; pudo completar cuadros de información (como en la pregunta N.° 27 del modelo); fue capaz de interpretar diagramas presentados en el modelo gráficamente, pero introducidos a ChatGPT solo con texto (como en las preguntas N.° 34, 40, 49 y 51); realizó ejercicios de comprensión lectora (preguntas N.° 9, 23, 29, 30, 32, 44, 47, 48, 50 y 55); y pudo prescindir de gráficos de información incluidos en el modelo de prueba, pero indicando la fuente de los datos (preguntas N.° 20 y 58). Al comparar las respuestas entregadas por ChatGPT<xref ref-type="fn" rid="fn18"><sup>16</sup></xref> con las claves publicadas por <xref ref-type="bibr" rid="B39">Demre (2022</xref>), ChatGPT acertó en cincuenta y cinco de las sesenta preguntas formuladas; esto es, tuvo un 91,7 % de acierto. Esto significa que, de haber rendido la examinación, ChatGPT habría obtenido ochocientos ochenta y ocho puntos de un total de mil.</p>
			<p>En el mundo del derecho, y a pesar de su enfoque generalista, ChatGPT ya ha tenido usos concretos en la función jurisdiccional. Este <italic>chatbot</italic> fue utilizado por un tribunal colombiano como apoyo en la construcción de fundamentos jurídicos en el dictado de una de sus sentencias<xref ref-type="fn" rid="fn19"><sup>17</sup></xref>.</p>
			<p>
				<xref ref-type="bibr" rid="B56">Floridi (2023</xref>) explica los Modelos de Lenguaje comparándolos por analogía con los loros estocásticos, pero advirtiendo brillantemente que</p>
			<p><disp-quote>
				<p>La analogía ayuda, pero solo en parte, no solo porque los loros tienen una inteligencia propia que sería la envidia de cualquier IA sino, sobre todo, porque los [Modelos de Lenguaje de Gran Tamaño] sintetizan textos de nuevas formas, reestructurando los contenidos en los que han sido entrenados, no proporcionando simples repeticiones o yuxtaposiciones. Se parecen mucho más a la función de autocompletar de un motor de búsqueda. Y en su capacidad de síntesis se asemejan a esos alumnos mediocres o perezosos que, para escribir un breve ensayo, utilizan una decena de referencias pertinentes sugeridas por el profesor y, tomando un poco de aquí y un poco de allá, arman un texto ecléctico, coherente, pero sin haber entendido mucho ni añadido nada. Como tutor universitario en Oxford, corregí muchos de ellos cada trimestre. Ahora ChatGPT puede producirlos de manera más rápida y eficiente (p. 15).</p>
			</disp-quote></p>
			<p>Estas tecnologías ofrecen oportunidades únicas para el mejoramiento continuo de la enseñanza universitaria que «incluyen una mayor participación, colaboración y accesibilidad de los estudiantes» (<xref ref-type="bibr" rid="B32">Cotton <italic>et al</italic>., 2023</xref>). Pueden permitirles identificar fuentes de información de una manera más rápida que a través de las búsquedas en bases de datos convencionales, facilitarles el procesamiento de mayores volúmenes de datos para discriminar los relevantes de los accesorios o contribuir al proceso de formación de un juicio crítico sobre diversos temas, por mencionar algunos aspectos. Pero estas tecnologías también plantean desafíos (<xref ref-type="bibr" rid="B77">Islam y Islam, 2023</xref>; <xref ref-type="bibr" rid="B82">Kasneci <italic>et al.</italic>, 2023</xref>; <xref ref-type="bibr" rid="B109">Riley y Alvarez, 2023</xref>), entre ellos uno de carácter ético e, incluso, jurídico que se relaciona con lo que en términos coloquiales denominamos «copia».</p>
			<p>La versión 3.5 de ChatGPT disponible en forma gratuita se diferencia de todas las otras aplicaciones generativas y conversacionales existentes, incluso de sus propias versiones previas<xref ref-type="fn" rid="fn20"><sup>18</sup></xref>, por las capacidades que dicho <italic>chatbot</italic> tiene. No solo puede entender texto natural y contestar preguntas, sino que también es capaz de traducir entre distintos idiomas, rechazar requerimientos inapropiados, contradecir premisas incorrectas, resumir textos, generar escritura creativa como poesía, contar chistes o crear cuentos (<xref ref-type="bibr" rid="B48">Eke, 2023</xref>; <xref ref-type="bibr" rid="B81">Jiao <italic>et al.</italic>, 2023</xref>; <xref ref-type="bibr" rid="B122">Talan y Kalinkara, 2023</xref>, p. 35). Y se encuentra aún en su infancia. Como lo han destacado <xref ref-type="bibr" rid="B8">Aljanabi y ChatGPT (2023</xref>, p. 16) -¡sí, el propio <italic>chatbot</italic> es coautor declarado de esta fuente!-, «una de las direcciones futuras más prometedoras para ChatGPT es su integración con otras tecnologías de IA, tales como la visión de computadores y la robótica»<xref ref-type="fn" rid="fn21"><sup>19</sup></xref>. A ello se puede agregar que ChatGPT tiene un enfoque generalista con relación a la información de entrenamiento empleada, pero nada obsta a que en un corto o mediano plazo surjan chats conversacionales entrenados en áreas específicas del conocimiento. El derecho puede ser una de ellas.</p>
		</sec>
		<sec>
			<title>III. INTEGRIDAD ACADÉMICA</title>
			<p>Para identificar los riesgos que las tecnologías de IA de generación de contenido representan para la integridad académica<xref ref-type="fn" rid="fn22"><sup>20</sup></xref>, tomaré como referencia la definición propuesta por el <xref ref-type="bibr" rid="B76">International Center for Academic Integrity (2021</xref>) sin perjuicio de destacar que, a nivel de definición, un consenso sobre cómo definir la integridad académica está lejos de alcanzarse y su comprensión está fuertemente influida por contextos nacionales, como lo demuestran los diferentes trabajos que integran el <italic>Handbook of Academic Integrity</italic> (<xref ref-type="bibr" rid="B19">Bretag (ed.), 2016</xref>).</p>
			<p>El <xref ref-type="bibr" rid="B76">International Center for Academic Integrity (2021</xref>) define la integridad académica como un compromiso con seis valores fundamentales: honestidad, confianza, justicia, respeto, responsabilidad y coraje (ver <xref ref-type="fig" rid="f1">Figura 1</xref>). </p>
			<p>
				<fig id="f1">
					<label>Figura 1</label>
					<caption>
						<title>Esquema de los valores que integran el concepto de integridad académica</title>
					</caption>
					<graphic xlink:href="0251-3420-derecho-91-231-gf1.jpg"/>
					<attrib>Fuente: <xref ref-type="bibr" rid="B76">International Center for Academic Integrity (2021</xref>).</attrib>
				</fig>
			</p>
			<p>Desde una perspectiva deontológica, la adhesión sustancial a estos valores permite reconocer una actividad académica como tal en la medida que la adecuación a tales valores es un requisito de la esencia de las labores de docencia e investigación. Desde un enfoque ético utilitarista, la recepción de los señalados valores permite atribuirle valor y credibilidad a la actividad académica.</p>
			<p>El <xref ref-type="bibr" rid="B76">International Center for Academic Integrity (2021</xref>) estima que el valor de la honestidad se encuentra en la base de los valores de la confianza, la justicia, el respeto y la responsabilidad, actuando como un sustrato necesario para el desarrollo ético. Entiende a la honestidad como aquella cualidad positiva que consiste en ser legítimo o veraz, esto es, la ausencia de fraude o engaño.</p>
			<p>En virtud del valor de la confianza, los «miembros de la comunidad académica deben ser capaces de confiar en que el trabajo, ya sea de estudiantes o investigadores, no es falsificado y que los estándares se aplican por igual a todos» (<xref ref-type="bibr" rid="B76">International Center for Academic Integrity, 2021</xref>, p. 6).</p>
			<p>El valor de justicia es definido por ICAI como aquella cualidad positiva que consiste en la «calidad o estado de ser justo, especialmente el trato justo o imparcial, la falta de favoritismo hacia un lado u otro» <xref ref-type="bibr" rid="B76">(International Center for Academic Integrity, 2021</xref>, p. 7). La adhesión a este valor impone el deber de un tratamiento imparcial que refuerza la importancia de la verdad, las ideas, la lógica y la racionalidad; y se manifiesta en componentes de predictibilidad, transparencia y expectativas claras y razonables (<xref ref-type="bibr" rid="B76">International Center for Academic Integrity, 2021</xref>, p. 7). </p>
			<p>El valor del respeto es entendido como una alta o especial consideración o la cualidad de ser estimado. Este valor se desenvuelve en dos perspectivas. La primera, el autorrespeto, que significa enfrentar los desafíos sin comprometer los valores propios; y la segunda, el heterorrespeto, que consiste en «valorar la diversidad de opiniones y apreciar la necesidad de desafiar, probar y refinar las ideas» (<xref ref-type="bibr" rid="B76">International Center for Academic Integrity, 2021</xref>, p. 8).</p>
			<p>El valor de la responsabilidad consiste en la cualidad de asumir un deber y cumplirlo, desde una perspectiva ética e, incluso, normativa (jurídica). La adhesión del valor de la responsabilidad para con uno mismo como para con los otros distribuye y aumenta la posibilidad de introducir cambios importantes en la comunidad académica (<xref ref-type="bibr" rid="B76">International Center for Academic Integrity, 2021</xref>, p. 9). </p>
			<p>Finalmente, el valor del coraje significa la capacidad de cada uno de los miembros de la comunidad de actuar de acuerdo con los propios valores con fundamento, a pesar del miedo de adoptar esa posición y de comportarse de acuerdo con las propias convicciones personales. Tal actuación solo tiene protección si los valores propios tienen fundamento y son aceptados por el resto de la comunidad (<xref ref-type="bibr" rid="B76">International Center for Academic Integrity, 2021</xref>, p. 10). </p>
		</sec>
		<sec>
			<title>IV. CONDUCTAS Y SU (DIS)VALORACIÓN</title>
			<p>Desde la aparición de los programas de procesamiento de texto hemos contado con herramientas de ayuda en el proceso de escritura; por ejemplo, las funciones de corrección ortográfica y gramatical, y de autocorrección con que cuenta el procesador de texto MS Word. O los asistentes digitales de escritura (DWA, por sus siglas en inglés) que permiten introducir mejoras sustanciales a la redacción, la gramática y el vocabulario utilizado en un texto escrito. El anuncio efectuado por Microsoft sobre el lanzamiento de 365 Copilot<xref ref-type="fn" rid="fn23"><sup>21</sup></xref> promete llevar las herramientas productivas a un nivel sin precedentes. </p>
			<p>Las utilidades existentes son herramientas cuyo uso no solo se encuentra naturalizado, sino que, además, puede ser valorado. Nadie cuestionaría a un estudiante que ha enmendado sus erratas en un ensayo o en una tesis gracias al corrector ortográfico y gramatical de MS Word; y, de hecho, lo reprochable sería que, en la redacción de un trabajo escrito, su autor incurra en tales errores por no haberlas utilizado. Los asistentes digitales de escritura, basados en IA, ayudan a superar barreras idiomáticas que pueden incrementar el acceso de personas no nativas del inglés para publicar sus investigaciones en revistas anglófonas que prácticamente monopolizan las principales vías de difusión del conocimiento, incluso en las ciencias jurídicas y criminológicas (<xref ref-type="bibr" rid="B50">Faraldo-Cabana, 2018</xref>, <xref ref-type="bibr" rid="B51">2019</xref>; <xref ref-type="bibr" rid="B52">Faraldo-Cabana y Lamela, 2021</xref>). Las aplicaciones ML, a través de las funciones para las que están diseñadas, tienen un potencial enorme, cuya utilización en la docencia podría aportar gran valor.</p>
			<p>No obstante, las herramientas informáticas también generan riesgos para la integridad académica y al propio proceso docente que es necesario identificar y mitigar. Tal tarea debe comenzar por una identificación previa respecto de las posibles conductas involucradas. No cualquier utilización de herramientas basadas en IA va a conducir, automáticamente, a conductas que pueden desvalorarse desde la perspectiva de la integridad académica. Establecer dicha relación causal sería una simplificación inadmisible.</p>
			<p>En palabras de <xref ref-type="bibr" rid="B48">Eke (2023</xref>), el riesgo de las aplicaciones ML consiste en que «tanto los estudiantes como los investigadores puedan comenzar a externalizar su escritura a ChatGPT. Si algunas respuestas tempranas a las preguntas de ensayo de nivel universitario sirven de algo, los profesores deberían estar preocupados por el futuro de los ensayos como una forma de evaluación».</p>
			<p>Me parece acertada la descripción que hace Eke porque permite distinguir dos grandes grupos de casos dentro de la utilización de tecnologías. El primero, compuesto por aquellas conductas en las que el uso de herramientas tecnológicas es irreprochable porque tal utilización no lesiona valores ni reglas; el segundo, constituido por comportamientos disvalorados porque el uso de herramientas tecnológicas infringe tales valores o normas. En este grupo, que <xref ref-type="bibr" rid="B38">Dawson (2021</xref>) denomina genéricamente <italic>e-cheating</italic>, el uso de las herramientas tecnológicas sobrepasa el mero apoyo o ayuda que ellas prestan. Estimo que en este grupo de <italic>e-cheating</italic> pueden reconocerse tres formas específicas de conductas disvaloradas: plagio, suplantación de autoría y simulación de autoría.</p>
			<p>En el caso del plagio -palabra que derivaría del latín <italic>plagiare</italic>, secuestro con el propósito de convertir a la víctima en esclavo (<xref ref-type="bibr" rid="B55">Fishman, 2016</xref>, p. 13)-, es poco lo que puede agregarse en términos de su descripción como conducta disvalorada, a pesar de que en ella no abundan los consensos ni las definiciones precisas (<xref ref-type="bibr" rid="B79">Jelenic y Kennette, 2022</xref>, pp. 16-17). Según una sentencia penal dictada en Chile, el plagio es «[l] a apropiación de una obra ajena, haciéndola pasar como propia o bien utilizando los elementos creativos de aquella para la elaboración de una nueva creación de carácter ilegítima». De acuerdo con la <xref ref-type="bibr" rid="B97">Organización Mundial de Propiedad Intelectual (OMPI, 1980</xref>) el plagio consiste en «el acto de ofrecer o presentar como propia, en su totalidad o en parte, la obra de otra persona, en una forma o contexto más o menos alterados» (p. 192). El elemento central del plagio es la usurpación de un contenido perteneciente a otra persona que es su autora.</p>
			<p>El plagio convencional o básico consiste en la trascripción de un contenido de autoría ajena y su atribución a una persona distinta. Aunque las tecnologías de IA pueden facilitar esta forma de plagio, es evidente que la posibilidad de incurrir en él es completamente independiente de tales tecnologías. En otras palabras, que el riesgo de plagio convencional existe con o sin tecnologías de IA e, incluso, con la misma intensidad. Con relación a las herramientas informáticas, el riesgo de plagio es especialmente relevante a propósito de las herramientas de parafraseo automático (APT, por sus siglas en inglés). El plagio puede ser facilitado sustancialmente por estas herramientas (<xref ref-type="bibr" rid="B111">Rogerson y McCarthy, 2017</xref>), ya que ellas permiten cambiar la estructura sintáctica y gramatical de párrafos enteros, pero adoptando las ideas contenidas en la fuente parafraseada y omitiendo la referencia a la fuente consultada. El parafraseo no es necesariamente una tarea fácil y requiere no solo de habilidades, sino también de conocimientos sobre la materia; pero las tecnologías de IA permiten a quien efectúa el parafraseo prescindir de habilidades y conocimientos para hacerlo. Esta modalidad, denominada «plagio simulado», «inteligente» o «elaborado» (<xref ref-type="bibr" rid="B45">Echavarría, 2014</xref>, p. 710; <xref ref-type="bibr" rid="B46">2016</xref>), puede burlar fácilmente los <italic>softwares</italic> de detección de plagio.</p>
			<p>En el entorno angloamericano se ha investigado y descrito la conducta de <italic>commercial cheating</italic>, esto es, el reclutamiento por parte de estudiantes de terceras personas que escriben por ellos o ellas sus ensayos, memorias o tesis a cambio de un pago (<xref ref-type="bibr" rid="B96">Newton y Lang, 2016</xref>; <xref ref-type="bibr" rid="B95">Newton, 2018</xref>) y que en nuestro medio se conoce como «suplantación de autoría» (<xref ref-type="bibr" rid="B31">Comas Forgas y Sureda Negre, 2008</xref>; <xref ref-type="bibr" rid="B112">Rojas Chavarro y Olarte Collazos, 2010</xref>)<xref ref-type="fn" rid="fn24"><sup>22</sup></xref>. No conozco estudios que hayan determinado la incidencia de este fenómeno en Chile, pero su existencia es una cuestión conocida<xref ref-type="fn" rid="fn25"><sup>23</sup></xref>. La externalización de la redacción de trabajos académicos a una aplicación de generación automática de texto funciona con la misma lógica del <italic>commercial cheating</italic> y constituye el mismo tipo de infracción a la integridad académica. No obstante, las aplicaciones de generación automática de texto pueden llevar el fenómeno a niveles sin precedentes y tienen el potencial de amenazar masivamente la forma en la que entendemos la docencia y el proceso de evaluación. En palabras de King y del propio ChatGPT (2023),</p>
			<p><disp-quote>
				<p>[l]os estudiantes universitarios podrían potencialmente usar ChatGPT para hacer trampa en las tareas de redacción de ensayos alimentando al chatbot con indicaciones y preguntas específicas, y luego copiando y pegando las respuestas generadas en sus propios trabajos. Esto les permitiría producir fácilmente ensayos sin poner el esfuerzo y la investigación necesarios para escribir contenido original.</p>
			</disp-quote></p>
			<p>No obstante el plagio y la suplantación de identidad, las tecnologías de IA analizadas en este artículo plantean un escenario diferente. En términos descriptivos, este nuevo escenario consiste en el caso de un estudiante que haya obtenido su trabajo directamente desde una aplicación de generación automática de texto, o una parte más o menos sustancial de él, pero que aparente ser su autor, sin reconocer su verdadera fuente de creación, sin referenciar el origen de los insumos para su redacción o sin declarar el método utilizado para la creación del contenido.</p>
			<p>En este escenario, la extracción sin indicar la fuente no puede considerarse plagio porque el <italic>chatbot</italic> no es un ser humano y el plagio requiere la usurpación de la autoría de una persona (<xref ref-type="bibr" rid="B84">Kleebayoon y Wiwanitkit, 2023</xref>). Es cierto que el <italic>chatbot</italic> habrá tomado la información de alguna fuente bibliográfica humana, ya que su habilidad no es inventar una respuesta o generar nuevo conocimiento, sino articular una respuesta sobre la base de su información de entrenamiento. Pero, aun así, tomar la información preparada por un <italic>chatbot</italic> que proviene de fuentes «humanas» y simular ser su autor no es suficiente para considerarlo una forma de plagio propiamente tal. Asimismo, en este escenario no hay una contraprestación para el tercero que actúa como el verdadero autor del contenido; por el contrario, solo existe una relación entre el estudiante y una máquina inteligente generadora del contenido. Propongo denominar «simulación de autoría» a esta modalidad de deshonestidad académica que se desarrolla en entornos tecnológicos.</p>
			<p>A modo de ilustración, formulé a ChatGPT el siguiente requerimiento: «Escribe un resumen sobre “Who Dares Fine a Murderer? The Changing Meaning of Money and Fines in Western European Criminal Systems”, escrito por Patricia Faraldo-Cabana» (<xref ref-type="bibr" rid="B49">Faraldo-Cabana, 2015</xref>). El <italic>chatbot</italic> generó la siguiente respuesta:</p>
			<p><disp-quote>
				<p>“Who Dares Fine a Murderer? The Changing Meaning of Money and Fines in Western European Criminal Systems” es un artículo escrito por Patricia Faraldo-Cabana que aborda el papel del dinero y las multas en los sistemas criminales de Europa occidental. El artículo examina cómo ha cambiado la percepción del dinero como una forma de compensación por el delito, desde la antigua Grecia hasta la actualidad, y cómo el uso de multas ha evolucionado en respuesta a los cambios económicos y culturales.</p>
			</disp-quote></p>
			<p><disp-quote>
				<p>Faraldo-Cabana argumenta que la multa se ha utilizado históricamente como una forma de restaurar el orden social, ya que la compensación monetaria no solo compensaba a la víctima sino que también castigaba al delincuente. Sin embargo, a medida que la economía se ha vuelto más compleja, la multa se ha utilizado cada vez más como una fuente de ingresos para el estado en lugar de un castigo por el delito.</p>
			</disp-quote></p>
			<p><disp-quote>
				<p>El artículo también destaca las diferencias culturales en la percepción del dinero y las multas en Europa occidental, y cómo estas diferencias han influido en la evolución de los sistemas criminales. Por ejemplo, en países como Alemania, donde se valora la idea de que la justicia no tiene precio, las multas se han utilizado con moderación, mientras que en países como España, donde las multas se han utilizado históricamente como una forma de obtener ingresos para el Estado, se han aplicado con mayor frecuencia.</p>
			</disp-quote></p>
			<p><disp-quote>
				<p>En general, “Who Dares Fine a Murderer? The Changing Meaning of Money and Fines in Western European Criminal Systems” ofrece una perspectiva interesante sobre cómo la percepción del dinero y las multas ha evolucionado en los sistemas criminales de Europa occidental y cómo estos cambios han reflejado las transformaciones económicas y culturales a lo largo del tiempo<xref ref-type="fn" rid="fn26"><sup>24</sup></xref>.</p>
			</disp-quote></p>
			<p>El texto puede considerarse una buena síntesis del artículo, pero ChatGPT erró en la identificación de la fuente<xref ref-type="fn" rid="fn27"><sup>25</sup></xref>. Sin embargo, su respuesta perfectamente podría ser utilizada por un o una estudiante en la entrega de un informe o trabajo escrito evaluado.</p>
			<p>Surge el interrogante sobre la necesidad de distinguir una forma específica de conductas disvaloradas -la simulación de autoría- si ya existen el plagio y la usurpación de autoría. Estimo que reconocer esta tercera modalidad de conducta disvalorada se justifica por las diferencias que esta tiene con relación a las otras dos modalidades.</p>
			<p>La primera diferencia consiste en que las tecnologías de IA tienen la capacidad de conferirle a la simulación de autoría un efecto amplificador de los riesgos para la integridad académica. Si el plagio tradicional se basa en la fatídica, pero engorrosa combinación de las acciones copiar-pegar (<italic>copy-paste</italic>), las tecnologías algorítmicas de escritura y de generación de contenido que se pueden usar deshonestamente pueden serlo a una escala industrial por la facilidad de uso que ellas tienen y la posibilidad de replicar sus utilizaciones. Haciendo una analogía, el aumento de la escala de los riesgos para la integridad académica es igual al que, en su momento, representó la invención y masificación de la máquina fotocopiadora para la propiedad intelectual de los libros.</p>
			<p>La segunda diferencia que plantean las indicadas tecnologías es que su utilización es prácticamente indetectable y, con ello, resulte imposible acreditar una conducta disvalorada. La indetectabilidad se debe a que los <italic>softwares</italic> de detección de plagio no son capaces de identificar el parafraseo hecho con herramientas algorítmicas, ni tampoco si un texto fue producido por una aplicación de generación automatizada (<xref ref-type="bibr" rid="B113">Rudolph <italic>et al</italic>., 2023</xref>). El profesor o profesora que evalúa un trabajo escrito tampoco está en condiciones de percibir si un texto es de autoría propia del estudiante sometido a la evaluación o fue escrito por una máquina. Se han hecho esfuerzos por desarrollar herramientas de detección (clasificación) de contenido generado automáticamente, pero sin resultados concretos por el momento (<xref ref-type="bibr" rid="B101">Perkins, 2023</xref>, p. 13). OpenAI, de hecho, informa en su página web que se encuentra trabajando en una aplicación denominada Classifier (<xref ref-type="bibr" rid="B83">Kirchner et al., 2023</xref>), que podría llegar a tener la capacidad de determinar si un texto fue escrito por una persona o fue generado por ChatGPT. Pero la empresa advierte que dicha aplicación tiene importantes limitaciones<xref ref-type="fn" rid="fn28"><sup>26</sup></xref> y que ella «[n]o debe usarse como una herramienta principal para la toma de decisiones, sino como un complemento de otros métodos para determinar la fuente de un texto» <xref ref-type="bibr" rid="B83">(Kirchner <italic>et al.</italic>, 2023</xref>). Además, advierten los ingenieros de OpenAI, «los estudiantes pueden aprender rápidamente cómo evadir la detección modificando algunas palabras o cláusulas en el contenido generado» (<xref ref-type="bibr" rid="B83">Kirchner <italic>et al.</italic>, 2023</xref>). La indetectabilidad también se debe a los altos costes asociados a los procesos de auditoría o investigación sobre la autoría y detección de conductas disvaloradas, que requieren de tecnologías innovadoras que no todas las universidades están en condiciones de financiar o en capacidad de acceder a ellas (<xref ref-type="bibr" rid="B34">Crawford <italic>et al</italic>., 2023</xref>, p. 2; <xref ref-type="bibr" rid="B48">Eke, 2023</xref>, p. 3; <xref ref-type="bibr" rid="B82">Kasneci <italic>et al.</italic>, 2023</xref>, p. 13).</p>
			<p>La característica de la indetectabilidad y la precariedad de las herramientas para contrarrestarla hacen que surja otro tipo de riesgo: la posibilidad de juzgar inadecuadamente como conducta disvalorada el comportamiento de un estudiante que no lo ha sido (falso positivo) o la de considerar como lícito el comportamiento de un estudiante que efectivamente ha sido deshonesto (falso negativo). Las tecnologías generativas pueden desencadenar un círculo vicioso de afectación al valor de la confianza como parte de la integridad académica. Por un lado, la posibilidad de su utilización por los y las estudiantes podría conducir a los y las profesoras a comenzar el proceso evaluativo desde una premisa de desconfianza, es decir, desde una situación inicial de negación de dicho valor. Por otro lado, la urgencia por detectar y evitar conductas disvaloradas plantea el riesgo de instalar culturas de vigilantismo al interior del proceso docente que también implican una afectación al valor de la confianza como elemento estructurante de la integridad académica<xref ref-type="fn" rid="fn29"><sup>27</sup></xref>.</p>
			<p>La tercera diferencia consiste en el carácter informatizado de las técnicas de deshonestidad que el mal uso de las tecnologías de IA permite desarrollar (<xref ref-type="bibr" rid="B38">Dawson, 2021</xref>, pp. 5-6). Esto significa que, en tanto los métodos «tradicionales» responden a experiencias individuales difícilmente compartibles con otros en términos de sus productos, las tecnologías están ampliamente disponibles, son transables, distribuibles y accesibles para casi cualquier usuario que disponga de una conexión a internet y un dispositivo que le permita navegar por ella. En otras palabras, las técnicas de deshonestidad tecnologizadas dejan de ser una experiencia individual y pueden pasar a tener un carácter colectivo que llegue a muchas personas instantáneamente.</p>
		</sec>
		<sec>
			<title>V. RIESGOS</title>
			<p>La identificación de los riesgos éticos, su evaluación y mitigación son áreas que han adquirido especial relevancia a propósito de la energía que ha mostrado el desarrollo de la IA después de su segundo invierno (<xref ref-type="bibr" rid="B17">Boddington, 2017</xref>; <xref ref-type="bibr" rid="B21">Bryson, 2020</xref>; <xref ref-type="bibr" rid="B42">Donath, 2020</xref>; <xref ref-type="bibr" rid="B47">Eitel-Porter, 2021</xref>; <xref ref-type="bibr" rid="B53">Felländer <italic>et al.</italic>, 2022</xref>; <xref ref-type="bibr" rid="B65">Hagendorff, 2020</xref>, <xref ref-type="bibr" rid="B66">2022</xref>; <xref ref-type="bibr" rid="B71">Hermansson &amp; Hansson, 2007</xref>; <xref ref-type="bibr" rid="B103">Powers &amp; Ganascia, 2020</xref>; <xref ref-type="bibr" rid="B115">Siau &amp; Wang, 2020</xref>; <xref ref-type="bibr" rid="B119">Spivak &amp; Shepherd, 2021</xref>; <xref ref-type="bibr" rid="B127">Vanem, 2012</xref>; <xref ref-type="bibr" rid="B133">Yapo &amp; Weiss, 2018</xref>). En general, se destacan los riesgos que plantea la IA para la vigencia de los derechos fundamentales (<xref ref-type="bibr" rid="B33">Council of Europe, 2018</xref>; <xref ref-type="bibr" rid="B134">Yeung, 2019</xref>), o para la decisión y ejecución de políticas públicas, que podrían imponer una <italic>algocracia</italic> (<xref ref-type="bibr" rid="B36">Danaher, 2016</xref>, <xref ref-type="bibr" rid="B37">2022</xref>; <xref ref-type="bibr" rid="B26">Chace, 2018</xref>, pp. 89 y ss.; <xref ref-type="bibr" rid="B64">Gritsenko y Wood, 2020</xref>; <xref ref-type="bibr" rid="B30">Chomanski, 2022</xref>), entre otros tópicos. En particular, los riesgos para la integridad académica también han despertado la atención científica y académica (<xref ref-type="bibr" rid="B3">Abdelaal <italic>et al.</italic>, 2019</xref>; <xref ref-type="bibr" rid="B78">Jabotinsky &amp; Sarel, 2023</xref>; <xref ref-type="bibr" rid="B85">Lancaster, 2021</xref>; <xref ref-type="bibr" rid="B94">Moya <italic>et al.</italic>, 2023</xref>; <xref ref-type="bibr" rid="B101">Perkins, 2023</xref>; <xref ref-type="bibr" rid="B110">Roe &amp; Perkins, 2022</xref>).</p>
			<p>Los riesgos deben ser entendidos como amenazas que pueden llegar a concretarse en daños o afectaciones efectivas; en el caso del objeto de este artículo, para la integridad académica. Es decir, que la IA tiene ciertas condiciones que, en determinadas circunstancias, representan una potencial agresión a los valores sobre los que se estructura la integridad académica.</p>
			<p>La identificación de los riesgos de la IA en la docencia superior requiere reconocer que ella tiene una doble dimensión. Por un lado, es un proceso continuo de carácter dinámico que se va desenvolviendo en el tiempo y en el que se van verificando hitos; y, por otro, es un resultado, una situación final a la que se llega. Por ello, he identificado dos grandes grupos de riesgos: los <italic>procedimentales</italic>, que refieren a las amenazas sobre la docencia entendida como proceso; y los <italic>de resultado</italic>, es decir, los peligros de la IA que impactan el producto final del proceso de docencia<xref ref-type="fn" rid="fn30"><sup>28</sup></xref>. Un esquema de los riesgos identificados se muestra en la <xref ref-type="fig" rid="f2">Figura 2</xref>.</p>
			<p>
				<fig id="f2">
					<label>Figura 2</label>
					<caption>
						<title>Esquema de los riesgos de la IA para la integridad académica</title>
					</caption>
					<graphic xlink:href="0251-3420-derecho-91-231-gf2.jpg"/>
					<attrib>Fuente: elaboración propia.</attrib>
				</fig>
			</p>
			<p>No es posible en esta oportunidad hacer una descripción detallada de cada uno de los riesgos identificados porque dicha empresa excedería la extensión de un artículo. Por ello, formularé una enunciación de tales riesgos, dejando la posibilidad de su desarrollo para futuras investigaciones.</p>
			<sec>
				<title>V.1. Riesgos procedimentales</title>
				<sec>
					<title><italic>V.1.1. Excesiva dependencia y confianza en la AIG</italic></title>
					<p>La excesiva dependencia y confianza en la AIG es una forma de riesgo o amenaza que puede describirse sobre la base de dos parámetros: dependencia y confianza, y que se produce cuando estos superan un umbral en la interacción usual de los usuarios con la tecnología, de la misma forma en que una afición se transforma en una adicción. En el primer parámetro, enfocado en la dependencia, el riesgo surge cuando los estudiantes -pero también profesores- adquieren conductas en el proceso de aprendizaje que transforman a las tecnologías de IAG en elementos imprescindibles del proceso, ante cuya ausencia el desarrollo de sus acciones propias no pueda llevarse a cabo. En el segundo parámetro, el de la confianza, el riesgo se manifiesta cuando el usuario adquiere la convicción de que la información o contenidos generados por la IAG son necesariamente autosuficientes y correctos, renunciando a una posición crítica sobre ellos. </p>
					<p>Aunque las tecnologías de IA son cautivadoras, tanto porque sorprenden como porque facilitan el trabajo, no debe olvidarse que los contenidos generados por la IAG no están -ni pueden estar- libres de errores u omisiones. Se ha detectado que ChatGPT presenta fallas de sentido común (<xref ref-type="bibr" rid="B80">Ji <italic>et al.</italic>, 2023</xref>) y no está aún preparado para proporcionar pruebas matemáticas o cálculos de alta calidad de manera consistente (<xref ref-type="bibr" rid="B57">Frieder <italic>et al.</italic>, 2023</xref>). Los errores en IAG corresponden a los fenómenos que los expertos denominan «alucinación» -información generada sin base fáctica- y «divergencia» -fragmentos desalineados de la información de entrenamiento- (<xref ref-type="bibr" rid="B131">Xiao y Wang, 2021</xref>; <xref ref-type="bibr" rid="B108">Rebuffel <italic>et al.</italic>, 2022</xref>, p. 319; <xref ref-type="bibr" rid="B11">Bang <italic>et al.</italic>, 2023</xref>; <xref ref-type="bibr" rid="B80">Ji <italic>et al.</italic>, 2023</xref>). Los errores y los déficits de confiabilidad que presenta la IAG, como en el caso de ChatGPT, no la transforman en una herramienta inútil, a juicio de Dale, sino que todo depende de para qué se use.</p>
					<p>En consecuencia, así como no puede pretenderse, por ejemplo, obtener del <italic>chatbot</italic> consejos médicos porque sus errores pueden poner en riesgo la salud de personas (<xref ref-type="bibr" rid="B35">Dale, 2021</xref>), apoyar todo el proceso de enseñanza en esas herramientas también es desaconsejable. La excesiva dependencia y confianza en la IAG se presenta como un riesgo para a los valores de honestidad y confianza que configuran la integridad académica. Si los estudiantes desarrollan una relación de dependencia con la IAG al nivel descrito, están renunciando al proceso mismo de aprendizaje y ello puede conducir a actos que afecten la honestidad, no solo por la posible realización de las conductas disvaloradas como la simulación de autoría, sino también por la misma renuncia de los estudiantes a su rol de protagonistas de su propio aprendizaje. En consecuencia, el resto de la comunidad académica, y principalmente los profesores, dejarán de confiar en sus estudiantes sobre el grado de aprendizaje que estos estén adquiriendo, lo que afectaría a la confianza como valor. Indirectamente, ello puede conducir a afectaciones a valores de la integridad académica como la justicia y el respeto.</p>
				</sec>
				<sec>
					<title><italic>V.1.2. Irrealizabilidad del proyecto pedagógico</italic></title>
					<p>La utilización masiva, descontrolada y sin supervisión de IAG puede poner en riesgo la «realizabilidad del proyecto pedagógico» de una institución de educación superior. Este riesgo es especialmente fuerte en aquellas instituciones que han optado por modelos pedagógicos basados en el desarrollo de competencias o de resultados de aprendizaje. El mal uso (y abuso) de las tecnologías de IAG puede llevar a que los estudiantes no logren el desarrollo de las competencias o de los aprendizajes esperados. En un escenario -espero- distópico en esta materia, los estudiantes pueden transformarse en meros operadores de máquinas generadoras de información, pero sin que logren una comprensión ni un análisis crítico, incapaces de construir su propio conocimiento y de generar otros nuevos.</p>
					<p>Este riesgo de irrealizabilidad amenaza indirectamente los valores de la integridad académica, ya que una institución incapaz de concretar sus propios objetivos en docencia podría generar una cultura en la que nada importe, con los valores de la integridad académica como los primeros candidatos a dicha indiferencia.</p>
				</sec>
				<sec>
					<title><italic>V.I.3. Incorporación de sesgos y discriminación en el aprendizaje</italic></title>
					<p>Uno de los principales problemas de la IA en general, y en particular de las tecnologías generativas, es la existencia en ellas de sesgos y criterios de discriminación -arbitraria- provenientes de la información utilizada en sus procesos de entrenamiento (<xref ref-type="bibr" rid="B16">Bender <italic>et al.</italic>, 2021</xref>, pp. 613 y ss.; <xref ref-type="bibr" rid="B128">Weidinger <italic>et al.</italic>, 2021</xref>, pp. 9-18) y de su propio desarrollo. Así, la inclusión y la diversidad son factores que se consideran necesarios para el desarrollo de una IA ética (<xref ref-type="bibr" rid="B41">Dignum, 2019</xref>, pp. 100-101). Los sesgos y la discriminación son los presentes en la sociedad y en la información con la que son entrenadas las herramientas de IA, o los de los propios programadores de las aplicaciones (<xref ref-type="bibr" rid="B129">Whitby, 2011</xref>, p. 143). El uso de tales herramientas, en consecuencia, produce el riesgo de que los estudiantes incorporen en su proceso de aprendizaje tales sesgos y criterios de discriminación. Es cierto que las visiones sesgadas y discriminatorias parecen ser propias del ser humano, lo que significa que tales sesgos y discriminaciones también estarán presentes en la enseñanza y el aprendizaje sin el uso de IAG. Pero si esa condición es propiamente humana, parece que estamos en la necesidad de tolerar ciertos márgenes «naturales» de sesgos y discriminación, al punto de que hemos desarrollado mecanismos para detectarlos y, en lo posible, superarlos. Una cuestión distinta es que sea conveniente que aceptemos (o tengamos que aceptar) los que provienen de máquinas. El riesgo se hace más intenso si se considera el <italic>black box effect</italic> propio de la IA, una característica de complejidad de las tecnologías de <italic>deep learning</italic> que hace imposible reconstruir los procesos que ejecutó la máquina para llegar al resultado que entrega, lo que prácticamente atribuye a sus resultados un carácter inescrutable. «El peligro está en crear y usar decisiones que no son justificables, legitimables o que simplemente no permiten obtener explicaciones detalladas de ese comportamiento» ejecutado por la máquina (<xref ref-type="bibr" rid="B13">Barredo Arrieta <italic>et al.</italic>, 2020</xref>, p. 83).</p>
					<p>El aprendizaje mediado por errores, sesgos o discriminaciones afecta directamente la honestidad. Los miembros de la comunidad académica que aprenden bajo esas condicionantes no podrán ser honestos y, de hecho, ni siquiera estarán en condiciones de percibir sus propios errores. Pero también amenaza la confianza entre los distintos miembros de la comunidad, presentando un escenario propicio para una pérdida del respeto, otro de los valores amenazados.</p>
				</sec>
			</sec>
			<sec>
				<title>V.2. Riesgos de resultado individuales</title>
				<sec>
					<title><italic>V.2.1. Responsabilidad legal</italic></title>
					<p>Dentro de los riesgos de resultado de carácter individual se encuentra el de sufrir consecuencias o responsabilidades legales.</p>
					<p>Las conductas disvaloradas antes mencionadas (plagio y suplantación y simulación de autoría) pueden llevar a que la persona que incurra en ellas infrinja normas jurídicas universitarias o administrativas por las que puede ser sancionada, produzca un daño a terceros que deba indemnizar o cometa un delito que le haga penalmente responsable. Asimismo, esas conductas pueden llegar a comprometer la responsabilidad civil o administrativa de la propia institución universitaria por infringir los deberes de supervisión sobre sus propios estudiantes, al permitir que esas conductas disvaloradas se ejecuten o por no adoptar medidas de prevención adecuadas para impedirlas.</p>
					<p>La presencia de conductas disvaloradas pueden hacer que sus protagonistas intenten evadir los mecanismos de control para evitar sufrir las consecuencias legales. El éxito de estas maniobras de evasión afecta directamente los valores académicos de justicia y responsabilidad. Por otro lado, un sistema eficaz de control y supervisión que sea capaz de reprimir estas conductas puede conducir a otros riesgos, como la irrealizabilidad del modelo pedagógico.</p>
				</sec>
				<sec>
					<title><italic>V.2.2. Aprendizaje distorsionado y adquisición de sesgos y discriminaciones</italic></title>
					<p>De igual forma, el mal uso de herramientas de IA puede conducir a un aprendizaje distorsionado, ya sea porque el/la estudiante adquirió información incorrecta, sesgada o discriminatoria; porque no internalizó esa información y, por tanto, es incapaz de procesarla; o porque las mejoras que el o la estudiante introdujo pueden no reflejar su conocimiento como autor de un texto escrito y corregido automáticamente (<xref ref-type="bibr" rid="B101">Perkins, 2023</xref>). La sobreutilización de herramientas de IA como fuente de información o como instrumentos para «hacer el trabajo», la no contrastación con otras fuentes y la ausencia de análisis crítico pueden llevar a que el aprendizaje logrado se encuentre completamente distorsionado por los sesgos y la discriminación presente en la IA.</p>
					<p>Cabe subrayar que un aprendizaje distorsionado o sesgado afecta directamente los valores de integridad académica de honestidad, confianza y respeto. </p>
				</sec>
				<sec>
					<title><italic>V.2.3. Sobrecalificación infundada</italic></title>
					<p>El uso de tecnologías algorítmicas de generación de texto y contenido puede conducir a que los ensayos, memorias o tesis -en general, las evaluaciones escritas- arrojen un rendimiento asimétrico con las competencias desarrolladas o los aprendizajes obtenidos; en otras palabras, a una sobrecalificación que carezca de fundamento fáctico en términos del real aprendizaje del/la estudiante.</p>
					<p>La conducta de mejorar el rendimiento numérico en las evaluaciones -notas o calificaciones- usando deshonestamente la tecnología introduce, como es evidente, un elemento de injusticia. Tales conductas aumentan la probabilidad de una mejor calificación con una fracción del esfuerzo que otro/a estudiante honesto/a puso en la realización de la misma tarea sometida a evaluación. El subsidio que el uso deshonesto de la tecnología puede producir es una amenaza al valor de justicia que forma parte de la definición de integridad académica. Aunque el proceso de evaluación es el mismo para todos los estudiantes, el uso fraudulento de tecnología no está considerado dentro de los criterios evaluativos y hace que se obtenga la misma evaluación -o mejor- con menos esfuerzo que quien se empeñó más.</p>
				</sec>
			</sec>
			<sec>
				<title>V.3. Riesgos de resultado colectivos</title>
				<sec>
					<title><italic>V.3.1. Pérdida de competitividad de la institución</italic></title>
					<p>En la esfera de los riesgos de resultado de carácter colectivo, la utilización indebida de tecnologías de IA puede llegar a amenazar la competitividad de una institución de educación de superior. Una universidad en la que el uso de tales prácticas incorrectas se masifique y no se adopten medidas de mitigación puede ver afectada la competitividad de sus titulaciones, tanto por una cuestión de imagen pública como por la menor calidad de los profesionales que egresen de ella.</p>
				</sec>
				<sec>
					<title><italic>V.3.2. Contaminación de la cultura académica</italic></title>
					<p>La difusión de prácticas deshonestas y su falta de represión puede hacer que estas terminen naturalizándose y normalizándose. Este proceso sostenido en el tiempo, que permite que las prácticas deshonestas se naturalicen y normalicen, deteriora y contamina la cultura académica de una institución universitaria. La contaminación se manifiesta en el desapego de sus miembros a los valores de integridad académica y, con ello, en la renuncia a los valores que esta implica.</p>
				</sec>
				<sec>
					<title><italic>V.3.3. Degradación del valor ético de la institución</italic></title>
					<p>El proceso de degradación a que puede conducir una cultura académica contaminada puede generar, finalmente, una pérdida del valor ético de tal institución. El valor ético -esto es, el fuerte compromiso real y material con la integridad académica- es una condición que debería ser considerada como el principal activo intangible en una universidad. La pérdida de competitividad y la degradación de su valor ético muestra un escenario profundamente perverso, caracterizado por la negación de la integridad académica.</p>
				</sec>
			</sec>
		</sec>
		<sec>
			<title>VI. MEDIDAS DE MITIGACIÓN</title>
			<p>Los desafíos que plantea la IA<xref ref-type="fn" rid="fn31"><sup>29</sup></xref> en la actividad docente universitaria conducen la mirada a lo que se ha descrito como la destreza digital (<italic>digital dexterity</italic>); esto es, la «capacidad de autoorganizarse rápidamente para ofrecer un nuevo valor a partir de las tecnologías digitales» (<xref ref-type="bibr" rid="B117">Soule <italic>et al.</italic>, 2016</xref>, p. 5). Me parece razonable que, frente a las nuevas realidades que se están construyendo a partir de los desarrollos tecnológicos, las universidades adopten una actitud de reconocimiento hacia ellas e inicien un proceso de reflexión que les permita obtener los beneficios que tales tecnologías ofrecen, aprovechándolos para diseñar y aplicar en forma efectiva medidas que mitiguen los riesgos que ellas plantean. Estas tareas deberían ser asumidas con un sentido de urgencia atendida la velocidad con la que la tecnología se desarrolla<xref ref-type="fn" rid="fn32"><sup>30</sup></xref>.</p>
			<p>En este sentido, creo necesario explorar cuatro medidas de mitigación de los riesgos antes descritos: la adaptación de marcos normativos, la revalorización del pensamiento crítico, los cambios en los paradigmas de la docencia y el cuestionamiento de los modelos de <italic>e-learning</italic>. A continuación, se ofrece una breve explicación de ellas.</p>
			<sec>
				<title>VI.1. Adaptación de los marcos normativos</title>
				<p>El normativo es uno de los elementos que conforman una organización. Las normas son mandatos de comportamiento que poseen ciertas características que las hacen importantes, a saber: a) tienen la capacidad de aumentar la predictibilidad de los comportamientos de los otros -que no es lo mismo que pretender que las normas <italic>determinen</italic> comportamientos ajenos-; b) guían la selección de comportamientos que efectúan las personas, ya que las normas indican qué es lo esperable y qué no; c) obligan a mejorar la coordinación entre personas colaboradoras en un proyecto o tarea común (<xref ref-type="bibr" rid="B88">Malle <italic>et al</italic>., 2017</xref>, pp. 4-5); y d) tienen una cierta capacidad para motivar el comportamiento de las personas, mostrando la trascendencia de los intereses relevantes a proteger, en los que se denominan los efectos expresivo-integradores de las normas (<xref ref-type="bibr" rid="B40">Díez Ripollés, 2003</xref>, p. 151).</p>
				<p>La adaptación de los marcos normativos como medida de mitigación consiste en que las universidades inicien un proceso interno de discusión que lleve a una adaptación de sus normas internas a las nuevas realidades marcadas por la IA. Se trata de que las reglamentaciones estén construidas considerando estos nuevos riesgos para evitar vacíos normativos que hagan que, frente a una conducta disvalorada, esta deba ser sancionada aun en ausencia de norma -afectando la predictibilidad requerida de las normas- o que no pueda ser sancionada por ausencia de normativa que lo permita, afectando la vigencia de valores de integridad académica. En este sentido, la adaptación de los marcos normativos pasa por la incorporación de una regulación especialmente diseñada para lo que aquí he denominado «simulación de autoría».</p>
				<p>Además de verificar que las normas contemplen los nuevos escenarios propuestos por las tecnologías, el proceso de definir estas nuevas reglas puede ser también provechoso para la comunidad académica. En efecto, el proceso de construir un nuevo cuerpo regulatorio requiere de, al menos, tres elementos: que las personas conozcan el fenómeno que se pretende regular, tanto en su descripción como en sus aspectos valorativos; que esté claro cuáles son las opciones para regular ese fenómeno; y un consenso sobre la respuesta que las normas van a proporcionar frente a ese fenómeno y las consecuencias que se van a generar ante su incumplimiento. La concreción de esos tres elementos en la realidad es un proceso de por sí provechoso porque estos implican el compromiso de los miembros de la comunidad académica con el problema y su posible o posibles soluciones.</p>
			</sec>
			<sec>
				<title>VI.2. Revalorización del pensamiento crítico</title>
				<p>La recopilación de información, el levantamiento bibliográfico e, incluso, la síntesis de conocimientos existentes son tareas que pueden ser ejecutadas automatizadamente con la ayuda de tecnologías de IA y, en particular, las generativas. Esto significa que tales tareas deberían dejar de tener una incidencia alta en el proceso de evaluación. Pero hay un área en la que, por el momento, las aplicaciones de IAG no han sido capaces de igualarnos: el pensamiento crítico y reflexivo. Si una parte importante de las tareas que integran la actividad de los estudiantes pueden ser externalizadas, lo lógico sería concentrarse en aquellas que aún no pueden serlo. Esta es una de las externalidades positivas que plantean las tecnologías de IAG: ofrecen una buena razón para revalorizar el pensamiento crítico.</p>
				<p>Pero para revalorizar el pensamiento crítico primero se debe tener un concepto sobre él. De acuerdo con la descripción de <xref ref-type="bibr" rid="B100">Paul (2005</xref>), el pensamiento crítico es aquel que comprende el análisis, la evaluación y la mejora del propio pensamiento, y su resultado es el pensamiento creativo (p. 28).</p>
				<p>Orientar la docencia hacia el pensamiento crítico requiere, después de la definición, de un consenso sobre la forma en la que dicha orientación puede ser materializada y de las metodologías para lograrlo. Todas estas cuestiones deberían estar en el centro de la actividad académica en las universidades.</p>
				<p>La adopción del pensamiento crítico como un estándar para la evaluación, por ejemplo, ayuda a mitigar los riesgos de la IAG. Si la docencia y la evaluación se quedan en los niveles de datos, repetición y memorización, tales actividades pueden sucumbir frente a las tecnologías de la IA.</p>
			</sec>
			<sec>
				<title>VI.3. Cambios en los paradigmas de la docencia y la evaluación</title>
				<p>La revalorización del pensamiento crítico como horizonte de la docencia produce como consecuencia que una revisión, también crítica, de los paradigmas de docencia y evaluación se torne necesaria. Esta medida de mitigación consiste en la generación de espacios de discusión académica en la comunidad universitaria sobre los beneficios y riesgos de la IA en la actividad docente. Este proceso de discusión tiene como externalidad la difusión de las problemáticas y pone a los miembros de la comunidad académica en la posición de tener que analizarlos y adoptar puntos de vista y convicciones sobre la cuestión. El proceso de discusión puede generar una simbiosis importante -y positiva- con la medida de adaptación normativa, ya que el mayor conocimiento de la norma asegura su mayor efecto expresivo-integrador.</p>
				<p>A nivel operativo, la irrupción de la IAG obligará a repensar aspectos importantes de la docencia, como la evaluación<xref ref-type="fn" rid="fn33"><sup>31</sup></xref>. La IAG puede ayudar enormemente en el proceso de evaluación, proveyendo a los profesores de instrumentos creativos capaces de estimular el interés y la imaginación de los estudiantes, pero sus riesgos obligan a adoptar medidas más concretas. Por lo pronto, un desafío para los profesores es el de ser capaces de generar «preguntas resistentes al fraude» (<xref ref-type="bibr" rid="B121">Susnjak, 2022</xref>, p. 4), como aquellas en las que el estudiante deba generar un conocimiento nuevo aplicando los contenidos estudiados. Mi área de especialización, el derecho penal, se presta particularmente para preguntas de desarrollo de casos, por ejemplo. Otras cuestiones, como la revalorización de las examinaciones presenciales, aparecen como buenas alternativas, así como diseñar instrumentos de evaluación que escapen de las posibilidades -actuales- de la tecnología: preguntas con enunciados largos, cuya resolución requiera aplicación o pensamiento crítico, de la habilidad de integrar conocimientos o que se refieran a información que quede fuera del periodo comprendido en la información de entrenamiento (<xref ref-type="bibr" rid="B113">Rudolph <italic>et al</italic>., 2023</xref>). En otras palabras, frente a la llegada de las tecnologías de IA, la evaluación -más que nunca antes- requiere apuntar a la recogida de evidencia sobre si los/las estudiantes fueron capaces de internalizar los conceptos marco del derecho, como el razonamiento jurídico o el Estado de derecho, y su integración con los conceptos centrales de cada disciplina, de acuerdo con la distinción entre ambos propuesta por <xref ref-type="bibr" rid="B43">Donson y O’Sallivan (2017</xref>, pp. 23-26).</p>
			</sec>
			<sec>
				<title><bold>VI.4. Cuestionamiento de modelos de <italic>e-learning</italic>
</bold></title>
				<p>Los entornos de aprendizaje asincrónico, también conocidos como <italic>e-learning</italic>, ofrecen buenas oportunidades para una difusión de prácticas desleales y conductas disvaloradas con relación a la integridad académica, en especial la evaluación en tales entornos asincrónicos (<xref ref-type="bibr" rid="B63">Grijalva <italic>et al</italic>., 2006</xref>; <xref ref-type="bibr" rid="B120">Stuber-McEwen <italic>et al</italic>., 2009</xref>; <xref ref-type="bibr" rid="B23">Carabantes Alarcón, 2020</xref>; <xref ref-type="bibr" rid="B73">Holden <italic>et al</italic>., 2021</xref>; <xref ref-type="bibr" rid="B28">Chiang <italic>et al</italic>., 2022</xref>). La creciente popularidad de estos entornos de aprendizaje debería considerar la irrupción de las tecnologías de IAG; una valoración profunda de la compatibilidad de ambas es, en todo caso, recomendable, en particular en los procesos de evaluación. En estos entornos, la evaluación carece de los mecanismos de control formal que conllevan las aplicadas presencialmente. Uno de esos mecanismos -el más básico- es la vigilancia directa, que impide que los estudiantes externalicen el desarrollo de sus respuestas a aplicaciones de AIG. Si el entorno carece de esa vigilancia directa, el desarrollo de una evaluación puede ser externalizada a una IAG. La complejidad del tema impide analizarlo en profundidad aquí, por lo que me parece apropiado solo dejarlo planteado para futuras investigaciones sobre la materia.</p>
			</sec>
		</sec>
		<sec sec-type="conclusions">
			<title>VII. CONCLUSIONES</title>
			<p>El vertiginoso desarrollo tecnológico que está registrando la IA tiene un enorme potencial para la docencia en las universidades. En el otro lado de la moneda, esas mismas tecnologías plantean desafíos sobre los que se requieren procesos continuos de investigación, discusión y análisis. En particular, las tecnologías algorítmicas de escritura y de generación de contenido (IAG) están obligando -queramos reconocerlo o no- a replantear los paradigmas con los que hemos impartido la docencia y, como parte de ella, aquellos con los que se ha evaluado el aprendizaje o la obtención de competencias por parte de los estudiantes.</p>
			<p>Una buena demostración de las nuevas realidades que plantea la IA son las posibilidades que ofrece la aplicación ChatGPT. Usada deshonestamente, esta puede suplantar al estudiante en sus evaluaciones, principalmente las escritas por medio de ensayos, memorias de grado o tesis. </p>
			<p>Este artículo ha tenido como objetivo la exposición sintética de las relaciones eventualmente problemáticas con la IA (y, dentro de ella, con la IAG). En ese sentido, actúa como un primer encuentro con la temática expuesta y, a su vez, representa el inicio de una línea de investigación sobre la materia, intentando un examen de la bibliografía existente. Su hipótesis, que ha tomado como punto de partida la definición de integridad académica como un conjunto de valores (ver <xref ref-type="fig" rid="f1">Figura 1</xref>), plantea que las tecnologías de IAG amenazan directa o indirectamente tales valores y se configuran, en consecuencia, como riesgos para esta.</p>
			<p>Como parte del análisis, se ha propuesto una taxonomía de riesgos, subclasificada en riesgos procedimentales y de resultado; y en su exposición se ha establecido la relación entre tales riesgos y los valores de la integridad académica. A modo de síntesis, dichas relaciones se grafican en la <xref ref-type="fig" rid="f3">Figura 3</xref>.</p>
			<p>
				<fig id="f3">
					<label>Figura 3</label>
					<caption>
						<title>Relación entre los riesgos para la integridad académica y los valores que la componen</title>
					</caption>
					<graphic xlink:href="0251-3420-derecho-91-231-gf3.jpg"/>
					<attrib>Fuente: elaboración propia.</attrib>
				</fig>
			</p>
			<p>Finalmente, y sobre la base de la identificación de los riesgos y de sus relaciones conflictivas con los valores de la integridad académica, se propusieron cuatro medidas de mitigación. Estas son la adaptación de los marcos normativos de las universidades para que sus propias regulaciones den cuenta de las tecnologías de IAG y de su impacto sobre la actividad académica; la revalorización del pensamiento crítico como estrategia para relevar la importancia de la docencia y cómo esta debería enfocarse al desarrollo en los/las estudiantes de una actitud crítica y reflexiva, habilidades que, por el momento escapan a las posibilidades de la IAG; cambios en los paradigmas de docencia y evaluación, lo que supone reconocer la existencia de la IAG y cómo esta pueda alterar negativamente tales procesos; y el cuestionamiento de los modelos pedagógicos asincrónicos basados en tecnologías de información y comunicación.</p>
			<p>La llegada de las tecnologías de IA y, en particular, de las de IAG, requiere que las universidades partan por conocerlas y comprenderlas. Este proceso permitirá tomar conciencia no solo de las ventajas y posibilidades que ellas entregan para la innovación pedagógica, sino también de los riesgos. La docencia, entendida como un proceso, podría verse profundamente alterada por la irrupción tecnológica. Como las universidades no tienen capacidad ni de detener el desarrollo tecnológico ni de impedir que sus estudiantes utilicen estas tecnologías emergentes, solo les queda actuar para aprovecharlas y regularlas. En todo caso, ellas ofrecen un buen escenario para iniciar o retomar un proceso de discusión sobre la integridad académica.</p>
		</sec>
	</body>
	<back>
		<ref-list>
			<title>REFERENCIAS</title>
			<ref id="B1">
				<mixed-citation>Abbott, R., &amp; Sarch, A. (2019). Punishing Artificial Intelligence: Legal Fiction or Science Fiction. UC Davis Law Review, 53(1), 323-384.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Abbott</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Sarch</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Punishing Artificial Intelligence: Legal Fiction or Science Fiction</article-title>
					<source>UC Davis Law Review</source>
					<volume>53</volume>
					<issue>1</issue>
					<fpage>323</fpage>
					<lpage>384</lpage>
				</element-citation>
			</ref>
			<ref id="B2">
				<mixed-citation>Abbott, R., &amp; Sarch, A. (2020). Punishing artificial intelligence: Legal fiction or science fiction. En S. Deakin &amp; C. Markou (Eds.), Is Law Computable? Critical perspectives on Law and Artificial Intelligence (pp. 177-204). Hart Publishing. https://doi.org/doi.org/10.5040/9781509937097.ch-008</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Abbott</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Sarch</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<chapter-title>Punishing artificial intelligence: Legal fiction or science fiction</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Deakin</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Markou</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Is Law Computable? Critical perspectives on Law and Artificial Intelligence</source>
					<fpage>177</fpage>
					<lpage>204</lpage>
					<publisher-name>Hart Publishing</publisher-name>
					<pub-id pub-id-type="doi">10.5040/9781509937097.ch-008</pub-id>
				</element-citation>
			</ref>
			<ref id="B3">
				<mixed-citation>Abdelaal, E., Walpita Gamage, S., &amp; Mills, J. (2019). Artificial Intelligence Is a Tool for Cheating Academic Integrity. AAEE 2019 Annual Conference.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Abdelaal</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Walpita Gamage</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Mills</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<source>Artificial Intelligence Is a Tool for Cheating Academic Integrity</source>
					<conf-name>AAEE 2019 Annual Conference</conf-name>
				</element-citation>
			</ref>
			<ref id="B4">
				<mixed-citation>Abukmeil, M., Ferrari, S., Genovese, A., Piuri, V., &amp; Scotti, F. (2021). A Survey of Unsupervised Generative Models for Exploratory Data Analysis and Representation Learning. ACM Computing Surveys, 54(5), 1-40. https://doi.org/10.1145/3450963</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Abukmeil</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Ferrari</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Genovese</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Piuri</surname>
							<given-names>V.</given-names>
						</name>
						<name>
							<surname>Scotti</surname>
							<given-names>F.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>A Survey of Unsupervised Generative Models for Exploratory Data Analysis and Representation Learning</article-title>
					<source>ACM Computing Surveys</source>
					<volume>54</volume>
					<issue>5</issue>
					<fpage>1</fpage>
					<lpage>40</lpage>
					<pub-id pub-id-type="doi">10.1145/3450963</pub-id>
				</element-citation>
			</ref>
			<ref id="B5">
				<mixed-citation>Aitchison, C., &amp; Mowbray, S. (2016). Doctoral Writing Markets: Exploring the Grey Zone. En T. Bretag(Ed.), Handbook of Academic Integrity (pp. 287-301). Springer.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Aitchison</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Mowbray</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<chapter-title>Doctoral Writing Markets: Exploring the Grey Zone</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Bretag</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<source>Handbook of Academic Integrity</source>
					<fpage>287</fpage>
					<lpage>301</lpage>
					<publisher-name>Springer</publisher-name>
				</element-citation>
			</ref>
			<ref id="B6">
				<mixed-citation>Albahar, M., &amp; Almalki, J. (2019). Deepfakes: Threats and countermeasures systematic review. Journal of Theoretical and Applied Information Technology, 97(22), 3242-3250.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Albahar</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Almalki</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Deepfakes: Threats and countermeasures systematic review</article-title>
					<source>Journal of Theoretical and Applied Information Technology</source>
					<volume>97</volume>
					<issue>22</issue>
					<fpage>3242</fpage>
					<lpage>3250</lpage>
				</element-citation>
			</ref>
			<ref id="B7">
				<mixed-citation>Alibašić, H., &amp; Rose, J. (2019). Fake News in Context: Truth and Untruths. Public Integrity, 21(5), 463-468. https://doi.org/10.1080/10999922.2019.1622359</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Alibašić</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Rose</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Fake News in Context: Truth and Untruths</article-title>
					<source>Public Integrity</source>
					<volume>21</volume>
					<issue>5</issue>
					<fpage>463</fpage>
					<lpage>468</lpage>
					<pub-id pub-id-type="doi">10.1080/10999922.2019.1622359</pub-id>
				</element-citation>
			</ref>
			<ref id="B8">
				<mixed-citation>Aljanabi, M., &amp; ChatGPT. (2023). ChatGPT: Future Directions and Open possibilities (Editorial Article). Mesopotamian journal of Cybersecurity, 2023, 16-17. https://doi.org/10.58496/MJCS/2023/003</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Aljanabi</surname>
							<given-names>M.</given-names>
						</name>
						<collab>ChatGPT.</collab>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT: Future Directions and Open possibilities</article-title>
					<comment>Editorial Article</comment>
					<source>Mesopotamian journal of Cybersecurity</source>
					<issue>2023</issue>
					<fpage>16</fpage>
					<lpage>17</lpage>
					<pub-id pub-id-type="doi">10.58496/MJCS/2023/003</pub-id>
				</element-citation>
			</ref>
			<ref id="B9">
				<mixed-citation>Aydin, Ö., &amp; Karaarslan, E. (2022). OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare. <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308687">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308687</ext-link>. https://doi.org/https://dx.doi.org/10.2139/ssrn.4308687</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Aydin</surname>
							<given-names>Ö.</given-names>
						</name>
						<name>
							<surname>Karaarslan</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<source>OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare</source>
					<ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308687">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308687</ext-link>
					<pub-id pub-id-type="doi">10.2139/ssrn.4308687</pub-id>
				</element-citation>
			</ref>
			<ref id="B10">
				<mixed-citation>Azaria, A. (2022). ChatGPT Usage and Limitations. HAL Open Science, 1-6. https://doi.org/https://doi.org/10.31219/osf.io/5ue7n</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Azaria</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>ChatGPT Usage and Limitations</article-title>
					<source>HAL Open Science</source>
					<fpage>1</fpage>
					<lpage>6</lpage>
					<pub-id pub-id-type="doi">10.31219/osf.io/5ue7n</pub-id>
				</element-citation>
			</ref>
			<ref id="B11">
				<mixed-citation>Bang, Y., Cahyawijaya, S., Lee, N., Dai, W., Su, D., Wilie, B., Lovenia, H., Ji, Z., Yu, T., Chung, W., Do, Q. V, Xu, Y., &amp; Fung, P. (2023). A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity. ArXiv, abs/2302.0.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bang</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Cahyawijaya</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Lee</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Dai</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Su</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Wilie</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Lovenia</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Ji</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Yu</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Chung</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Do</surname>
							<given-names>Q. V</given-names>
						</name>
						<name>
							<surname>Xu</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Fung</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity</article-title>
					<source>ArXiv, abs/2302.0.</source>
				</element-citation>
			</ref>
			<ref id="B12">
				<mixed-citation>Barfield, W., &amp; Pagallo, U. (2020). Advanced Introduction to Law and Artificial Intelligence. Edward Elgar Publishing. https://doi.org/https://doi.org/10.4337/9781789905137</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Barfield</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Pagallo</surname>
							<given-names>U.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<source>Advanced Introduction to Law and Artificial Intelligence</source>
					<publisher-name>Edward Elgar Publishing</publisher-name>
					<pub-id pub-id-type="doi">10.4337/9781789905137</pub-id>
				</element-citation>
			</ref>
			<ref id="B13">
				<mixed-citation>Barredo Arrieta, A., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., Garcia, S., Gil-Lopez, S., Molina, D., Benjamins, R., Chatila, R., &amp; Herrera, F. (2020). Explainable Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82-115.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Barredo Arrieta</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Díaz-Rodríguez</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Del Ser</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Bennetot</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Tabik</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Barbado</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Garcia</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Gil-Lopez</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Molina</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Benjamins</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Chatila</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Herrera</surname>
							<given-names>F.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Explainable Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI</article-title>
					<source>Information Fusion</source>
					<volume>58</volume>
					<fpage>82</fpage>
					<lpage>115</lpage>
				</element-citation>
			</ref>
			<ref id="B14">
				<mixed-citation>Bartz, D. (2023). As ChatGPT’s popularity explodes, U.S. lawmakers take an interest. Reuters. <ext-link ext-link-type="uri" xlink:href="https://www.reuters.com/technology/chatgpts-popularity-explodes-us-lawmakers-take-an-interest-2023-02-13/">https://www.reuters.com/technology/chatgpts-popularity-explodes-us-lawmakers-take-an-interest-2023-02-13/</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Bartz</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>As ChatGPT’s popularity explodes, U.S. lawmakers take an interest</article-title>
					<source>Reuters</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.reuters.com/technology/chatgpts-popularity-explodes-us-lawmakers-take-an-interest-2023-02-13/">https://www.reuters.com/technology/chatgpts-popularity-explodes-us-lawmakers-take-an-interest-2023-02-13/</ext-link>
				</element-citation>
			</ref>
			<ref id="B15">
				<mixed-citation>Bearman, M., Dawson, P., Ajjawi, R., Tai, J., &amp; Boud, D. (Eds.). (2020). Re-imagining University Assessment in a Digital World. Springer.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="editor">
						<name>
							<surname>Bearman</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Dawson</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Ajjawi</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Tai</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Boud</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<source>Re-imagining University Assessment in a Digital World</source>
					<publisher-name>Springer</publisher-name>
				</element-citation>
			</ref>
			<ref id="B16">
				<mixed-citation>Bender, E. M., Gebru, T., McMillan-Major, A., &amp; Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? ? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623. https://doi.org/https://doi.org/10.1145/3442188.3445922</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Bender</surname>
							<given-names>E. M.</given-names>
						</name>
						<name>
							<surname>Gebru</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>McMillan-Major</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Shmitchell</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<source>On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? ?</source>
					<conf-name>Fairness, Accountability, and Transparency</conf-name>
					<fpage>610</fpage>
					<lpage>623</lpage>
					<pub-id pub-id-type="doi">10.1145/3442188.3445922</pub-id>
				</element-citation>
			</ref>
			<ref id="B17">
				<mixed-citation>Boddington, P. (2017). Towards a Code of Ethics for Artificial Intelligence. Springer. https://doi.org/https://doi.org/10.1007/978-3-319-60648-4</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Boddington</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<source>Towards a Code of Ethics for Artificial Intelligence</source>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-3-319-60648-4</pub-id>
				</element-citation>
			</ref>
			<ref id="B18">
				<mixed-citation>Bommarito, M. J., &amp; Katz, D. M. (2022). GPT Takes the Bar Exam. ArXiv, abs/2212.1. https://doi.org/https://doi.org/10.2139/ssrn.4314839</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bommarito</surname>
							<given-names>M. J.</given-names>
						</name>
						<name>
							<surname>Katz</surname>
							<given-names>D. M.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>GPT Takes the Bar Exam</article-title>
					<source>ArXiv, abs/2212.1</source>
					<pub-id pub-id-type="doi">10.2139/ssrn.4314839</pub-id>
				</element-citation>
			</ref>
			<ref id="B19">
				<mixed-citation>Bretag, T. (ed.), (2016). Handbook of Academic Integrity (T. Bretag (Ed.)). Springer. https://doi.org/https://doi.org/10.1007/978-981-287-098-8</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="editor">
						<name>
							<surname>Bretag</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<source>Handbook of Academic Integrity</source>
					<comment>T. Bretag (Ed.)</comment>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-981-287-098-8</pub-id>
				</element-citation>
			</ref>
			<ref id="B20">
				<mixed-citation>Brown, W., &amp; Fleming, D. H. (2020). Celebrity headjobs: or oozing squid sex with a framed-up leaky {Schar-JØ}. Porn Studies, 7(4), 357-366. https://doi.org/10.1080/23268743.2020.1815570</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Brown</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Fleming</surname>
							<given-names>D. H.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Celebrity headjobs: or oozing squid sex with a framed-up leaky {Schar-JØ}</article-title>
					<source>Porn Studies</source>
					<volume>7</volume>
					<issue>4</issue>
					<fpage>357</fpage>
					<lpage>366</lpage>
					<pub-id pub-id-type="doi">10.1080/23268743.2020.1815570</pub-id>
				</element-citation>
			</ref>
			<ref id="B21">
				<mixed-citation>Bryson, J. J. (2020). The Artificial Intelligence of the Ethics of Artificial Intelligence: An Introductory Overview for Law and Regulation. En M. Dubber, F. Pasquale, &amp; S. Das (Eds.), The Oxford Handbook of Ethics of AI (pp. 3-25). Oxford University Press. https://doi.org/https://doi.org/10.1093/oxfordhb/9780190067397.001.0001</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Bryson</surname>
							<given-names>J. J.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<chapter-title>The Artificial Intelligence of the Ethics of Artificial Intelligence: An Introductory Overview for Law and Regulation</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Dubber</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Pasquale</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Das</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>The Oxford Handbook of Ethics of AI</source>
					<fpage>3</fpage>
					<lpage>25</lpage>
					<publisher-name>Oxford University Press</publisher-name>
					<pub-id pub-id-type="doi">10.1093/oxfordhb/9780190067397.001.0001</pub-id>
				</element-citation>
			</ref>
			<ref id="B22">
				<mixed-citation>Caldera, E. (2019). “Reject the Evidence of Your Eyes and Ears”: Deepfakes and the Law of Virtual Replicants. Seton Hall Law Review, 50(1), 177-205.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Caldera</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Reject the Evidence of Your Eyes and Ears”: Deepfakes and the Law of Virtual Replicants</article-title>
					<source>Seton Hall Law Review</source>
					<volume>50</volume>
					<issue>1</issue>
					<fpage>177</fpage>
					<lpage>205</lpage>
				</element-citation>
			</ref>
			<ref id="B23">
				<mixed-citation>Carabantes Alarcón, D. (2020). Integridad académica y educación superior: nuevos retos en la docencia a distancia. Análisis Carolina, 28, 1-13. https://doi.org/https://doi.org/10.33960/ac_38.2020</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Carabantes Alarcón</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Integridad académica y educación superior: nuevos retos en la docencia a distancia</article-title>
					<source>Análisis Carolina</source>
					<volume>28</volume>
					<fpage>1</fpage>
					<lpage>13</lpage>
					<pub-id pub-id-type="doi">10.33960/ac_38.2020</pub-id>
				</element-citation>
			</ref>
			<ref id="B24">
				<mixed-citation>Carrasco, J. P., García, E., Sánchez, D. A., Estrella Porter, P. D., De La Puente, L., Navarro, J., &amp; Cerame, A. (2023). ¿Es capaz “ChatGPT” de aprobar el examen MIR de 2022? Implicaciones de la inteligencia artificial en la educación médica en España. Revista Española de Educación Médica, 1, 55-69. https://doi.org/https://doi.org/10.6018/edumed.556511</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Carrasco</surname>
							<given-names>J. P.</given-names>
						</name>
						<name>
							<surname>García</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Sánchez</surname>
							<given-names>D. A.</given-names>
						</name>
						<name>
							<surname>Estrella Porter</surname>
							<given-names>P. D.</given-names>
						</name>
						<name>
							<surname>De La Puente</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Navarro</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Cerame</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>¿Es capaz “ChatGPT” de aprobar el examen MIR de 2022? Implicaciones de la inteligencia artificial en la educación médica en España</article-title>
					<source>Revista Española de Educación Médica</source>
					<volume>1</volume>
					<fpage>55</fpage>
					<lpage>69</lpage>
					<pub-id pub-id-type="doi">10.6018/edumed.556511</pub-id>
				</element-citation>
			</ref>
			<ref id="B25">
				<mixed-citation>Cassidy, C. (2023, enero 10). Australian universities to return to ‘pen and paper’ exams after students caught using AI to write essays. The Guardian. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/australia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays">https://www.theguardian.com/australia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Cassidy</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Australian universities to return to ‘pen and paper’ exams after students caught using AI to write essays</article-title>
					<source>The Guardian</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/australia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays">https://www.theguardian.com/australia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays</ext-link>
				</element-citation>
			</ref>
			<ref id="B26">
				<mixed-citation>Chace, C. (2018). Artificial intelligence and the two singularities. CRC Press. https://doi.org/https://doi.org/10.1201/9781351254465</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Chace</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<source>Artificial intelligence and the two singularities</source>
					<publisher-name>CRC Press</publisher-name>
					<pub-id pub-id-type="doi">10.1201/9781351254465</pub-id>
				</element-citation>
			</ref>
			<ref id="B27">
				<mixed-citation>Chesney, R., &amp; Citron, D. K. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107, 1753-1819. https://doi.org/https://doi.org/10.2139/ssrn.3213954</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Chesney</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Citron</surname>
							<given-names>D. K.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security</article-title>
					<source>California Law Review</source>
					<volume>107</volume>
					<fpage>1753</fpage>
					<lpage>1819</lpage>
					<pub-id pub-id-type="doi">10.2139/ssrn.3213954</pub-id>
				</element-citation>
			</ref>
			<ref id="B28">
				<mixed-citation>Chiang, F.-K., Zhu, D., &amp; Yu, W. (2022). A systematic review of academic dishonesty in online learning environments. Journal of Computer Assisted Learning, 38(4), 907-928. https://doi.org/https://doi.org/10.1111/jcal.12656</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Chiang</surname>
							<given-names>F.-K.</given-names>
						</name>
						<name>
							<surname>Zhu</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Yu</surname>
							<given-names>W.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>A systematic review of academic dishonesty in online learning environments</article-title>
					<source>Journal of Computer Assisted Learning</source>
					<volume>38</volume>
					<issue>4</issue>
					<fpage>907</fpage>
					<lpage>928</lpage>
					<pub-id pub-id-type="doi">10.1111/jcal.12656</pub-id>
				</element-citation>
			</ref>
			<ref id="B29">
				<mixed-citation>Choi, J. H., Hickman, K. E., Monahan, A., &amp; Schwarcz, D. (2023). ChatGPT Goes to Law School (White Paper). Minnesota Legal Studies Research Paper, 23-03. https://doi.org/https://dx.doi.org/10.2139/ssrn.4335905</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Choi</surname>
							<given-names>J. H.</given-names>
						</name>
						<name>
							<surname>Hickman</surname>
							<given-names>K. E.</given-names>
						</name>
						<name>
							<surname>Monahan</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Schwarcz</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>ChatGPT Goes to Law School</source>
					<comment>White Paper</comment>
					<publisher-name>Minnesota Legal Studies Research Paper</publisher-name>
					<fpage>23</fpage>
					<lpage>03</lpage>
					<pub-id pub-id-type="doi">10.2139/ssrn.4335905</pub-id>
				</element-citation>
			</ref>
			<ref id="B30">
				<mixed-citation>Chomanski, B. (2022). Legitimacy and automated decisions: the moral limits of algocracy. Ethics and Information Technology, 24(3), 1-9. https://doi.org/https://doi.org/10.1007/s10676-022-09647-w</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Chomanski</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Legitimacy and automated decisions: the moral limits of algocracy</article-title>
					<source>Ethics and Information Technology</source>
					<volume>24</volume>
					<issue>3</issue>
					<fpage>1</fpage>
					<lpage>9</lpage>
					<pub-id pub-id-type="doi">10.1007/s10676-022-09647-w</pub-id>
				</element-citation>
			</ref>
			<ref id="B31">
				<mixed-citation>Comas Forgas, R., &amp; Sureda Negre, J. (2008). El intercambio y compra-venta de trabajos académicos a través de Internet. Revista Electrónica De Tecnología Educativa, 26, 1-16. https://doi.org/https://doi.org/10.21556/edutec.2008.26.466</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Comas Forgas</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Sureda Negre</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2008</year>
					<article-title>El intercambio y compra-venta de trabajos académicos a través de Internet</article-title>
					<source>Revista Electrónica De Tecnología Educativa</source>
					<volume>26</volume>
					<fpage>1</fpage>
					<lpage>16</lpage>
					<pub-id pub-id-type="doi">10.21556/edutec.2008.26.466</pub-id>
				</element-citation>
			</ref>
			<ref id="B32">
				<mixed-citation>Cotton, D. R. E., Cotton, P. A., &amp; Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the era of ChatGPT. Innovations in Education and Teaching International, 0(0), 1-12. https://doi.org/https://doi.org/10.1080/14703297.2023.2190148</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Cotton</surname>
							<given-names>D. R. E.</given-names>
						</name>
						<name>
							<surname>Cotton</surname>
							<given-names>P. A.</given-names>
						</name>
						<name>
							<surname>Shipway</surname>
							<given-names>J. R.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Chatting and cheating: Ensuring academic integrity in the era of ChatGPT</article-title>
					<source>Innovations in Education and Teaching International</source>
					<volume>0</volume>
					<issue>0</issue>
					<fpage>1</fpage>
					<lpage>12</lpage>
					<pub-id pub-id-type="doi">10.1080/14703297.2023.2190148</pub-id>
				</element-citation>
			</ref>
			<ref id="B33">
				<mixed-citation>Council of Europe. (2018). Study on the Human Rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications. Council of Europe. <ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5">https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>Council of Europe</collab>
					</person-group>
					<year>2018</year>
					<source>Study on the Human Rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications</source>
					<publisher-name>Council of Europe</publisher-name>
					<ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5">https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5</ext-link>
				</element-citation>
			</ref>
			<ref id="B34">
				<mixed-citation>Crawford, J., Cowling, M., &amp; Allen, K.-A. (2023). Leadership is needed for ethical ChatGPT: Character, assessment, and learning using artificial intelligence (AI). Journal of University Teaching &amp; Learning Practice, 20(1), 1-19. https://doi.org/https://doi.org/10.53761/1.20.3.02</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Crawford</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Cowling</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Allen</surname>
							<given-names>K.-A.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Leadership is needed for ethical ChatGPT: Character, assessment, and learning using artificial intelligence (AI)</article-title>
					<source>Journal of University Teaching &amp; Learning Practice</source>
					<volume>20</volume>
					<issue>1</issue>
					<fpage>1</fpage>
					<lpage>19</lpage>
					<pub-id pub-id-type="doi">10.53761/1.20.3.02</pub-id>
				</element-citation>
			</ref>
			<ref id="B35">
				<mixed-citation>Dale, R. (2021). GPT-3: What’s it good for? Natural Language Engineering, 27(1), 113-118. https://doi.org/https://doi.org/10.1017/s1351324920000601</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Dale</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>GPT-3: What’s it good for?</article-title>
					<source>Natural Language Engineering</source>
					<volume>27</volume>
					<issue>1</issue>
					<fpage>113</fpage>
					<lpage>118</lpage>
					<pub-id pub-id-type="doi">10.1017/s1351324920000601</pub-id>
				</element-citation>
			</ref>
			<ref id="B36">
				<mixed-citation>Danaher, J. (2016). The Threat of Algocracy: Reality, Resistance and Accommodation. Philosophy &amp; Technology, 29(3), 245-268. https://doi.org/https://doi.org/10.1007/s13347-015-0211-11</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Danaher</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<article-title>The Threat of Algocracy: Reality, Resistance and Accommodation</article-title>
					<source>Philosophy &amp; Technology</source>
					<volume>29</volume>
					<issue>3</issue>
					<fpage>245</fpage>
					<lpage>268</lpage>
					<pub-id pub-id-type="doi">10.1007/s13347-015-0211-11</pub-id>
				</element-citation>
			</ref>
			<ref id="B37">
				<mixed-citation>Danaher, J. (2022). Freedom in an Age of Algocracy. En S. Vallor (Ed.), The Oxford Handbook of Philosophy of Technology (pp. 250-272). Oxford University Press. https://doi.org/https://doi.org/10.1093/oxfordhb/9780190851187.013.16</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Danaher</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<chapter-title>Freedom in an Age of Algocracy</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Vallor</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>The Oxford Handbook of Philosophy of Technology</source>
					<fpage>250</fpage>
					<lpage>272</lpage>
					<publisher-name>Oxford University Press</publisher-name>
					<pub-id pub-id-type="doi">10.1093/oxfordhb/9780190851187.013.16</pub-id>
				</element-citation>
			</ref>
			<ref id="B38">
				<mixed-citation>Dawson, P. (2021). Defending Assessment Security in a Digital World Preventing E-Cheating and Supporting Academic Integrity in Higher Education. Routledge. https://doi.org/https://doi.org/10.4324/9780429324178</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Dawson</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<source>Defending Assessment Security in a Digital World Preventing E-Cheating and Supporting Academic Integrity in Higher Education</source>
					<publisher-name>Routledge</publisher-name>
					<pub-id pub-id-type="doi">10.4324/9780429324178</pub-id>
				</element-citation>
			</ref>
			<ref id="B39">
				<mixed-citation>Demre. (2022). Modelo de Prueba de Historia y Ciencias Sociales. <ext-link ext-link-type="uri" xlink:href="https://demre.cl/publicaciones/2023/2023-22-03-31-modelo-historia-csociales">https://demre.cl/publicaciones/2023/2023-22-03-31-modelo-historia-csociales</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>Demre</collab>
					</person-group>
					<year>2022</year>
					<source>Modelo de Prueba de Historia y Ciencias Sociales</source>
					<ext-link ext-link-type="uri" xlink:href="https://demre.cl/publicaciones/2023/2023-22-03-31-modelo-historia-csociales">https://demre.cl/publicaciones/2023/2023-22-03-31-modelo-historia-csociales</ext-link>
				</element-citation>
			</ref>
			<ref id="B40">
				<mixed-citation>Díez Ripollés, J. L. (2003). El Derecho penal simbólico y los efectos de la pena. En L. Arroyo Zapatero, U. Neumann, &amp; A. Nieto Marín (Eds.), Crítica y justificación del Derecho penal en el cambio de siglo (pp. 147-172). Ediciones de la Universidad de Castilla-La Mancha.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Díez Ripollés</surname>
							<given-names>J. L.</given-names>
						</name>
					</person-group>
					<year>2003</year>
					<chapter-title>El Derecho penal simbólico y los efectos de la pena</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Arroyo Zapatero</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Neumann</surname>
							<given-names>U.</given-names>
						</name>
						<name>
							<surname>Nieto Marín</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<source>Crítica y justificación del Derecho penal en el cambio de siglo</source>
					<fpage>147</fpage>
					<lpage>172</lpage>
					<publisher-name>Ediciones de la Universidad de Castilla-La Mancha.</publisher-name>
				</element-citation>
			</ref>
			<ref id="B41">
				<mixed-citation>Dignum, V. (2019). Responsible artificial intelligence. How to develop and use AI in a responsible way. Springer. https://doi.org/https://doi.org/10.1007/978-3-030-30371-6</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Dignum</surname>
							<given-names>V.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<source>Responsible artificial intelligence. How to develop and use AI in a responsible way</source>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-3-030-30371-6</pub-id>
				</element-citation>
			</ref>
			<ref id="B42">
				<mixed-citation>Donath, J. (2020). Ethical Issues in Our Relationship with Artificial Entities. En M. D. Dubber, F. Pasquale , &amp; S. Das (Eds.), The Oxford Handbook of Ethics of AI (pp. 53-73). Oxford University Press. https://doi.org/https://doi.org/10.1093/oxfordhb/9780190067397.013.3</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Donath</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<chapter-title>Ethical Issues in Our Relationship with Artificial Entities</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Dubber</surname>
							<given-names>M. D.</given-names>
						</name>
						<name>
							<surname>Pasquale</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Das</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>The Oxford Handbook of Ethics of AI</source>
					<fpage>53</fpage>
					<lpage>73</lpage>
					<publisher-name>Oxford University Press</publisher-name>
					<pub-id pub-id-type="doi">10.1093/oxfordhb/9780190067397.013.3</pub-id>
				</element-citation>
			</ref>
			<ref id="B43">
				<mixed-citation>Donson, F., &amp; O’Sullivan, C. (2017). Building blocks or stumbling block? Teaching actus reus and mens rea in criminal law. En K. Gledhill &amp; B. Living (Eds.), The Teaching of Criminal Law. The pedagogical imperatives (pp. 21-33). Routledge.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Donson</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>O’Sullivan</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<chapter-title>Building blocks or stumbling block? Teaching actus reus and mens rea in criminal law</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Gledhill</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Living</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<source>The Teaching of Criminal Law. The pedagogical imperatives</source>
					<fpage>21</fpage>
					<lpage>33</lpage>
					<publisher-name>Routledge</publisher-name>
				</element-citation>
			</ref>
			<ref id="B44">
				<mixed-citation>Dowling, M., &amp; Lucey, B. (2023). ChatGPT for (Finance) research: The Bananarama Conjecture. Finance Research Letters, 103662. https://doi.org/https://doi.org/10.1016/j.frl.2023.103662</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Dowling</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Lucey</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT for (Finance) research: The Bananarama Conjecture</article-title>
					<source>Finance Research Letters</source>
					<elocation-id>103662</elocation-id>
					<pub-id pub-id-type="doi">10.1016/j.frl.2023.103662</pub-id>
				</element-citation>
			</ref>
			<ref id="B45">
				<mixed-citation>Echavarría, M. A. (2014). ¿Qué es el plagio? Propuesta conceptual del plagio punible. Revista Facultad de Derecho y Ciencias Políticas, 44(121), 699-720.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Echavarría</surname>
							<given-names>M. A.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<article-title>¿Qué es el plagio? Propuesta conceptual del plagio punible</article-title>
					<source>Revista Facultad de Derecho y Ciencias Políticas</source>
					<volume>44</volume>
					<issue>121</issue>
					<fpage>699</fpage>
					<lpage>720</lpage>
				</element-citation>
			</ref>
			<ref id="B46">
				<mixed-citation>Echavarría, M. A. (2016). El delito de plagio: una propuesta de regulación penal de la infracción al derecho de autor. Cuadernos de Derecho Penal, 15, 85-101. https://doi.org/https://doi.org/10.22518/20271743.577</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Echavarría</surname>
							<given-names>M. A.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<article-title>El delito de plagio: una propuesta de regulación penal de la infracción al derecho de autor</article-title>
					<source>Cuadernos de Derecho Penal</source>
					<volume>15</volume>
					<fpage>85</fpage>
					<lpage>101</lpage>
					<pub-id pub-id-type="doi">10.22518/20271743.577</pub-id>
				</element-citation>
			</ref>
			<ref id="B47">
				<mixed-citation>Eitel-Porter, R. (2021). Beyond the promise: implementing ethical AI. AI and Ethics, 1(1), 73-80. https://doi.org/https://doi.org/10.1007/s43681-020-00011-6</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Eitel-Porter</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Beyond the promise: implementing ethical AI.</article-title>
					<source>AI and Ethics</source>
					<volume>1</volume>
					<issue>1</issue>
					<fpage>73</fpage>
					<lpage>80</lpage>
					<pub-id pub-id-type="doi">10.1007/s43681-020-00011-6</pub-id>
				</element-citation>
			</ref>
			<ref id="B48">
				<mixed-citation>Eke, D. O. (2023). ChatGPT and the rise of generative AI: Threat to academic integrity? Journal of Responsible Technology, 13, 100060. https://doi.org/https://doi.org/10.1016/j.jrt.2023.100060</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Eke</surname>
							<given-names>D. O.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT and the rise of generative AI: Threat to academic integrity?</article-title>
					<source>Journal of Responsible Technology</source>
					<volume>13</volume>
					<elocation-id>100060</elocation-id>
					<pub-id pub-id-type="doi">10.1016/j.jrt.2023.100060</pub-id>
				</element-citation>
			</ref>
			<ref id="B49">
				<mixed-citation>Faraldo-Cabana, P. (2015). Who Dares Fine a Murderer? The Changing Meaning of Money and Fines in Western European Criminal Systems. Social &amp; Legal Studies, 25(4), 489-507. https://doi.org/https://doi.org/10.1177/0964663915618545</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Faraldo-Cabana</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<article-title>Who Dares Fine a Murderer? The Changing Meaning of Money and Fines in Western European Criminal Systems</article-title>
					<source>Social &amp; Legal Studies</source>
					<volume>25</volume>
					<issue>4</issue>
					<fpage>489</fpage>
					<lpage>507</lpage>
					<pub-id pub-id-type="doi">10.1177/0964663915618545</pub-id>
				</element-citation>
			</ref>
			<ref id="B50">
				<mixed-citation>Faraldo-Cabana, P. (2018). Research excellence and Anglophone dominance: The case of law, criminology and social science. En K. Carrington, R. Hogg, J. Scott, &amp; M. Sozzo (Eds.), The Palgrave Handbook of Criminology and the Global South (Vols. 163-182). Palgrave. https://doi.org/https://doi.org/10.1007/978-3-319-65021-0_9</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Faraldo-Cabana</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<chapter-title>Research excellence and Anglophone dominance: The case of law, criminology and social science</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Carrington</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Hogg</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Scott</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Sozzo</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<source>The Palgrave Handbook of Criminology and the Global South</source>
					<volume>163-182</volume>
					<publisher-name>Palgrave</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-3-319-65021-0_9</pub-id>
				</element-citation>
			</ref>
			<ref id="B51">
				<mixed-citation>Faraldo-Cabana, P. (2019). Consecuencias imprevistas de la dominación anglófona en las ciencias sociales y jurídicas. RES. Revista Española de Sociología, 28(1), 45-60. https://doi.org/https://doi.org/10.22325/fes/res.2018.57</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Faraldo-Cabana</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Consecuencias imprevistas de la dominación anglófona en las ciencias sociales y jurídicas. RES</article-title>
					<source>Revista Española de Sociología</source>
					<volume>28</volume>
					<issue>1</issue>
					<fpage>45</fpage>
					<lpage>60</lpage>
					<pub-id pub-id-type="doi">10.22325/fes/res.2018.57</pub-id>
				</element-citation>
			</ref>
			<ref id="B52">
				<mixed-citation>Faraldo-Cabana, P., &amp; Lamela, C. (2021). How international are the top international journals of criminology and criminal justice? European Journal on Criminal Policy and Research, 27(2), 151-174. https://doi.org/https://doi.org/10.1007/s10610-019-09426-2</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Faraldo-Cabana</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Lamela</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>How international are the top international journals of criminology and criminal justice?</article-title>
					<source>European Journal on Criminal Policy and Research</source>
					<volume>27</volume>
					<issue>2</issue>
					<fpage>151</fpage>
					<lpage>174</lpage>
					<pub-id pub-id-type="doi">10.1007/s10610-019-09426-2</pub-id>
				</element-citation>
			</ref>
			<ref id="B53">
				<mixed-citation>Felländer, A., Rebane, J., Larsson, S., Wiggberg, M., &amp; Heintz, F. (2022). Achieving a Data-Driven Risk Assessment Methodology for Ethical AI. Digital Society, 1(2), 13. https://doi.org/https://doi.org/10.1007/s44206-022-00016-0</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Felländer</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Rebane</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Larsson</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Wiggberg</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Heintz</surname>
							<given-names>F.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Achieving a Data-Driven Risk Assessment Methodology for Ethical AI</article-title>
					<source>Digital Society</source>
					<volume>1</volume>
					<issue>2</issue>
					<fpage>13</fpage>
					<lpage>13</lpage>
					<pub-id pub-id-type="doi">10.1007/s44206-022-00016-0</pub-id>
				</element-citation>
			</ref>
			<ref id="B54">
				<mixed-citation>Fierens, M., Rossello, S., &amp; Wauters, E. (2021). Setting the scene: On AI ethics and regulation. En J. De Bruyne &amp; C. Vanleenhove (Eds.), Artificial Intelligence and the Law (pp. 49-72). Intersentia.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Fierens</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Rossello</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Wauters</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<chapter-title>Setting the scene: On AI ethics and regulation</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>De Bruyne</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Vanleenhove</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Artificial Intelligence and the Law</source>
					<fpage>49</fpage>
					<lpage>72</lpage>
					<publisher-name>Intersentia</publisher-name>
				</element-citation>
			</ref>
			<ref id="B55">
				<mixed-citation>Fishman, T. ‘Teddi’. (2016). Academic Integrity as an Educational Concept, Concern, and Movement in US Institutions of Higher Learning BT - Handbook of Academic Integrity. En T. Bretag (Ed.), Handbook of Academic Integrity (pp. 7-21). Springer Singapore. https://doi.org/https://doi.org/10.1007/978-981-287-098-8_1</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Fishman</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<chapter-title>Academic Integrity as an Educational Concept, Concern, and Movement in US Institutions of Higher Learning BT - Handbook of Academic Integrity</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Bretag</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<source>Handbook of Academic Integrity</source>
					<fpage>7</fpage>
					<lpage>21</lpage>
					<publisher-name>Springer Singapore</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-981-287-098-8_1</pub-id>
				</element-citation>
			</ref>
			<ref id="B56">
				<mixed-citation>Floridi, L. (2023). AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models. Philosophy &amp; Technology, 36(1), 15. https://doi.org/https://doi.org/10.2139/ssrn.4358789</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Floridi</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models</article-title>
					<source>Philosophy &amp; Technology</source>
					<volume>36</volume>
					<issue>1</issue>
					<fpage>15</fpage>
					<lpage>15</lpage>
					<pub-id pub-id-type="doi">10.2139/ssrn.4358789</pub-id>
				</element-citation>
			</ref>
			<ref id="B57">
				<mixed-citation>Frieder, S., Pinchetti, L., Griffiths, R.-R., Salvatori, T., Lukasiewicz, T., Petersen, P. C., Chevalier, A., &amp; Berner, J. J. (2023). Mathematical Capabilities of ChatGPT. ArXiv, abs/2301.1.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Frieder</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Pinchetti</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Griffiths</surname>
							<given-names>R.-R.</given-names>
						</name>
						<name>
							<surname>Salvatori</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Lukasiewicz</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Petersen</surname>
							<given-names>P. C.</given-names>
						</name>
						<name>
							<surname>Chevalier</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Berner</surname>
							<given-names>J. J.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Mathematical Capabilities of ChatGPT</article-title>
					<source>ArXiv, abs/2301.1.</source>
				</element-citation>
			</ref>
			<ref id="B58">
				<mixed-citation>García-Peñalvo, F. (2023). La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: disrupción o pánico. Education in the Knowledge Society, 24, e31279. https://doi.org/https://doi.org/10.14201/eks.31279</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>García-Peñalvo</surname>
							<given-names>F.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: disrupción o pánico</article-title>
					<source>Education in the Knowledge Society</source>
					<volume>24</volume>
					<elocation-id>e31279</elocation-id>
					<pub-id pub-id-type="doi">10.14201/eks.31279</pub-id>
				</element-citation>
			</ref>
			<ref id="B59">
				<mixed-citation>García-Ull, F. (2021). Deepfakes: The next challenge in fake news detection. Anàlisi, 64, 103-120. https://doi.org/https://doi.org/10.5565/rev/analisi.3378</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>García-Ull</surname>
							<given-names>F.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Deepfakes: The next challenge in fake news detection</article-title>
					<source>Anàlisi</source>
					<volume>64</volume>
					<fpage>103</fpage>
					<lpage>120</lpage>
					<pub-id pub-id-type="doi">10.5565/rev/analisi.3378</pub-id>
				</element-citation>
			</ref>
			<ref id="B60">
				<mixed-citation>García-Villegas, M., Franco-Pérez, N., &amp; Cortés-Arbeláez, A. (2016). Perspectives on Academic Integrity in Colombia and Latin America. En T. Bretag (Ed.), Handbook of oAcademic Integrity (pp. 161-180). Springer. https://doi.org/https://doi.org/10.1007/978-981-287-098-8_10</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>García-Villegas</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Franco-Pérez</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Cortés-Arbeláez</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<chapter-title>Perspectives on Academic Integrity in Colombia and Latin America</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Bretag</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<source>Handbook of oAcademic Integrity</source>
					<fpage>161</fpage>
					<lpage>180</lpage>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-981-287-098-8_10</pub-id>
				</element-citation>
			</ref>
			<ref id="B61">
				<mixed-citation>Gordijn, B., &amp; Have, H. ten. (2023). ChatGPT: evolution or revolution? Medicine, Health Care and Philosophy. https://doi.org/https://doi.org/10.1007/s11019-023-10136-0</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Gordijn</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Have</surname>
							<given-names>H. ten.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT: evolution or revolution?</article-title>
					<source>Medicine, Health Care and Philosophy</source>
					<pub-id pub-id-type="doi">10.1007/s11019-023-10136-0</pub-id>
				</element-citation>
			</ref>
			<ref id="B62">
				<mixed-citation>Gozalo-Brizuela, R., &amp; Garrido-Merchán, E. C. (2023). ChatGPT is not all you need. A State of the Art Review of large Generative AI models. ArXiv, abs/2301.0.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Gozalo-Brizuela</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Garrido-Merchán</surname>
							<given-names>E. C.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT is not all you need. A State of the Art Review of large Generative AI models</article-title>
					<source>ArXiv, abs/2301.0.</source>
				</element-citation>
			</ref>
			<ref id="B63">
				<mixed-citation>Grijalva, T. C., Nowell, C., &amp; Kerkvliet, J. (2006). Academic Honesty and Online Courses. College Student Journal, 40(1), 180-185.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Grijalva</surname>
							<given-names>T. C.</given-names>
						</name>
						<name>
							<surname>Nowell</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Kerkvliet</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2006</year>
					<article-title>Academic Honesty and Online Courses</article-title>
					<source>College Student Journal</source>
					<volume>40</volume>
					<issue>1</issue>
					<fpage>180</fpage>
					<lpage>185</lpage>
				</element-citation>
			</ref>
			<ref id="B64">
				<mixed-citation>Gritsenko, D., &amp; Wood, M. (2020). Algorithmic governance: A modes of governance approach. Regulation and Governance. https://doi.org/https://doi.org/10.1111/rego.12367</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Gritsenko</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Wood</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Algorithmic governance: A modes of governance approach</article-title>
					<source>Regulation and Governance</source>
					<pub-id pub-id-type="doi">10.1111/rego.12367</pub-id>
				</element-citation>
			</ref>
			<ref id="B65">
				<mixed-citation>Hagendorff, T. (2020). The Ethics of AI Ethics: An Evaluation of Guidelines. Minds and Machines, 30(1), 99-120. https://doi.org/https://doi.org/10.1007/s11023-020-09517-8</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hagendorff</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>The Ethics of AI Ethics: An Evaluation of Guidelines</article-title>
					<source>Minds and Machines</source>
					<volume>30</volume>
					<issue>1</issue>
					<fpage>99</fpage>
					<lpage>120</lpage>
					<pub-id pub-id-type="doi">10.1007/s11023-020-09517-8</pub-id>
				</element-citation>
			</ref>
			<ref id="B66">
				<mixed-citation>Hagendorff, T. (2022). Blind spots in AI ethics. AI and Ethics, 2(4), 851-867. https://doi.org/https://doi.org/10.1007/s43681-021-00122-8</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hagendorff</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Blind spots in AI ethics</article-title>
					<source>AI and Ethics</source>
					<volume>2</volume>
					<issue>4</issue>
					<fpage>851</fpage>
					<lpage>867</lpage>
					<pub-id pub-id-type="doi">10.1007/s43681-021-00122-8</pub-id>
				</element-citation>
			</ref>
			<ref id="B67">
				<mixed-citation>Harris, D. (2019). Deepfakes: False Pornography Is Here and the Law Cannot Protect You. Duke Law &amp; Technology Review, 17, 99-127.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Harris</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Deepfakes: False Pornography Is Here and the Law Cannot Protect You.</article-title>
					<source>Duke Law &amp; Technology Review</source>
					<volume>17</volume>
					<fpage>99</fpage>
					<lpage>127</lpage>
				</element-citation>
			</ref>
			<ref id="B68">
				<mixed-citation>Heaven, D. (2023). GPT-4 is bigger and better than ChatGPT-but OpenAI won’t say why. MIT Technology Review. <ext-link ext-link-type="uri" xlink:href="https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/?utm_source=engagement_email&amp;utm_medium=email&amp;utm_campaign=wklysun&amp;utm_content=03.19.23.nonsubs_eng&amp;mc_cid=d42ec9a242&amp;mc_eid=a0446d3f11">https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/?utm_source=engagement_email&amp;utm_medium=email&amp;utm_campaign=wklysun&amp;utm_content=03.19.23.nonsubs_eng&amp;mc_cid=d42ec9a242&amp;mc_eid=a0446d3f11</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Heaven</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>GPT-4 is bigger and better than ChatGPT-but OpenAI won’t say why</article-title>
					<source>MIT Technology Review</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/?utm_source=engagement_email&amp;utm_medium=email&amp;utm_campaign=wklysun&amp;utm_content=03.19.23.nonsubs_eng&amp;mc_cid=d42ec9a242&amp;mc_eid=a0446d3f11">https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/?utm_source=engagement_email&amp;utm_medium=email&amp;utm_campaign=wklysun&amp;utm_content=03.19.23.nonsubs_eng&amp;mc_cid=d42ec9a242&amp;mc_eid=a0446d3f11</ext-link>
				</element-citation>
			</ref>
			<ref id="B69">
				<mixed-citation>Helberger, N., &amp; Diakopoulos, N. (2023). ChatGPT and the AI Act. Internet Policy Review, 12(1). https://doi.org/https://doi.org/10.14763/2023.1.1682</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Helberger</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Diakopoulos</surname>
							<given-names>N.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT and the AI Act.</article-title>
					<source>Internet Policy Review</source>
					<volume>12</volume>
					<issue>1</issue>
					<pub-id pub-id-type="doi">10.14763/2023.1.1682</pub-id>
				</element-citation>
			</ref>
			<ref id="B70">
				<mixed-citation>Henry, J. V., &amp; Oliver, M. (2022). Who Will Watch the Watchmen? The Ethico-political Arrangements of Algorithmic Proctoring for Academic Integrity. Postdigital Science and Education, 4(2), 330-353. https://doi.org/https://doi.org/10.1007/s42438-021-00273-1</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Henry</surname>
							<given-names>J. V.</given-names>
						</name>
						<name>
							<surname>Oliver</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Who Will Watch the Watchmen? The Ethico-political Arrangements of Algorithmic Proctoring for Academic Integrity</article-title>
					<source>Postdigital Science and Education</source>
					<volume>4</volume>
					<issue>2</issue>
					<fpage>330</fpage>
					<lpage>353</lpage>
					<pub-id pub-id-type="doi">10.1007/s42438-021-00273-1</pub-id>
				</element-citation>
			</ref>
			<ref id="B71">
				<mixed-citation>Hermansson, H., &amp; Hansson, S. O. (2007). A three-party model for ethical risk analysis. Risk Management, 9(3), 129-144. https://doi.org/https://doi.org/10.1057/palgrave.rm.8250028</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hermansson</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Hansson</surname>
							<given-names>S. O.</given-names>
						</name>
					</person-group>
					<year>2007</year>
					<article-title>A three-party model for ethical risk analysis</article-title>
					<source>Risk Management</source>
					<volume>9</volume>
					<issue>3</issue>
					<fpage>129</fpage>
					<lpage>144</lpage>
					<pub-id pub-id-type="doi">10.1057/palgrave.rm.8250028</pub-id>
				</element-citation>
			</ref>
			<ref id="B72">
				<mixed-citation>Hern, A. (2023). TechScape: Will Meta’s massive leak democratise AI - and at what cost? The Guardian. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/mar/07/techscape-meta-leak-llama-chatgpt-ai-crossroads">https://www.theguardian.com/technology/2023/mar/07/techscape-meta-leak-llama-chatgpt-ai-crossroads</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Hern</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>TechScape: Will Meta’s massive leak democratise AI - and at what cost?</article-title>
					<source>The Guardian</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/mar/07/techscape-meta-leak-llama-chatgpt-ai-crossroads">https://www.theguardian.com/technology/2023/mar/07/techscape-meta-leak-llama-chatgpt-ai-crossroads</ext-link>
				</element-citation>
			</ref>
			<ref id="B73">
				<mixed-citation>Holden, O. L., Norris, M. E., &amp; Kuhlmeier, V. A. (2021). Academic Integrity in Online Assessment: A Research Review. Frontiers in Education, 6, 639814. https://doi.org/https://doi.org/10.3389/feduc.2021.639814</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Holden</surname>
							<given-names>O. L.</given-names>
						</name>
						<name>
							<surname>Norris</surname>
							<given-names>M. E.</given-names>
						</name>
						<name>
							<surname>Kuhlmeier</surname>
							<given-names>V. A.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Academic Integrity in Online Assessment: A Research Review</article-title>
					<source>Frontiers in Education</source>
					<volume>6</volume>
					<elocation-id>639814</elocation-id>
					<pub-id pub-id-type="doi">10.3389/feduc.2021.639814</pub-id>
				</element-citation>
			</ref>
			<ref id="B74">
				<mixed-citation>Höppner, T., &amp; Streatfeild, L. (2023). ChatGPT, Bard &amp; Co.: an introduction to AI for competition and regulatory lawyers. Hausfeld. <ext-link ext-link-type="uri" xlink:href="https://www.hausfeld.com/en-us/what-we-think/competition-bulletin/chatgpt-bard-co-an-introduction-to-ai-for-competition-and-regulatory-lawyers/">https://www.hausfeld.com/en-us/what-we-think/competition-bulletin/chatgpt-bard-co-an-introduction-to-ai-for-competition-and-regulatory-lawyers/</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Höppner</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Streatfeild</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT, Bard &amp; Co.: an introduction to AI for competition and regulatory lawyers</article-title>
					<source>Hausfeld</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.hausfeld.com/en-us/what-we-think/competition-bulletin/chatgpt-bard-co-an-introduction-to-ai-for-competition-and-regulatory-lawyers/">https://www.hausfeld.com/en-us/what-we-think/competition-bulletin/chatgpt-bard-co-an-introduction-to-ai-for-competition-and-regulatory-lawyers/</ext-link>
				</element-citation>
			</ref>
			<ref id="B75">
				<mixed-citation>Hu, L. (2022). Generative AI and Future. GAN, GPT-3, DALL·E 2, and what’s next. Medium. <ext-link ext-link-type="uri" xlink:href="https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2">https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Hu</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Generative AI and Future. GAN, GPT-3, DALL·E 2, and what’s next</article-title>
					<source>Medium</source>
					<ext-link ext-link-type="uri" xlink:href="https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2">https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2</ext-link>
				</element-citation>
			</ref>
			<ref id="B76">
				<mixed-citation>International Center for Academic Integrity. (2021). The Fundamental Values of Academic Integrity (3a ed.). <ext-link ext-link-type="uri" xlink:href="https://academicintegrity.org/images/pdfs/20019_ICAI-Fundamental-Values_R12.pdf">https://academicintegrity.org/images/pdfs/20019_ICAI-Fundamental-Values_R12.pdf</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>International Center for Academic Integrity.</collab>
					</person-group>
					<year>2021</year>
					<source>The Fundamental Values of Academic Integrity</source>
					<edition>3a</edition>
					<ext-link ext-link-type="uri" xlink:href="https://academicintegrity.org/images/pdfs/20019_ICAI-Fundamental-Values_R12.pdf">https://academicintegrity.org/images/pdfs/20019_ICAI-Fundamental-Values_R12.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B77">
				<mixed-citation>Islam, I., &amp; Islam, M. N. (2023). Opportunities and Challenges of ChatGPT in Academia: A Conceptual Analysis. Authorea, Preprint, 1-9. https://doi.org/https://doi.org/10.22541/au.167712329.97543109/v1</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Islam</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Islam</surname>
							<given-names>M. N.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Opportunities and Challenges of ChatGPT in Academia: A Conceptual Analysis</article-title>
					<source>Authorea</source>
					<comment>Preprint</comment>
					<fpage>1</fpage>
					<lpage>9</lpage>
					<pub-id pub-id-type="doi">10.22541/au.167712329.97543109/v1</pub-id>
				</element-citation>
			</ref>
			<ref id="B78">
				<mixed-citation>Jabotinsky, H. Y., &amp; Sarel, R. (2023). Co-authoring with an AI? Ethical dilemmas and Artificial Intelligence (working paper). <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4303959">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4303959</ext-link>
				</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Jabotinsky</surname>
							<given-names>H. Y.</given-names>
						</name>
						<name>
							<surname>Sarel</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>Co-authoring with an AI? Ethical dilemmas and Artificial Intelligence</source>
					<comment>working paper</comment>
					<ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4303959">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4303959</ext-link>
				</element-citation>
			</ref>
			<ref id="B79">
				<mixed-citation>Jelenic, M., &amp; Kennette, L. N. (2022). Cheating: It depends how you define it. Canadian Perspectives on Academic Integrity, 5(2), 16-33. https://doi.org/https://doi.org/10.11575/cpai.v5i2.75649 ISSN</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Jelenic</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Kennette</surname>
							<given-names>L. N.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Cheating: It depends how you define it.</article-title>
					<source>Canadian Perspectives on Academic Integrity</source>
					<volume>5</volume>
					<issue>2</issue>
					<fpage>16</fpage>
					<lpage>33</lpage>
					<pub-id pub-id-type="doi">10.11575/cpai.v5i2.75649 ISSN</pub-id>
				</element-citation>
			</ref>
			<ref id="B80">
				<mixed-citation>Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., &amp; Fung, P. (2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys, 55(12), 1-38. https://doi.org/https://doi.org/10.1145/3571730</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ji</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Lee</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Frieske</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Yu</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Su</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Xu</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Ishii</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Bang</surname>
							<given-names>Y. J.</given-names>
						</name>
						<name>
							<surname>Madotto</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Fung</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Survey of Hallucination in Natural Language Generation</article-title>
					<source>ACM Computing Surveys</source>
					<volume>55</volume>
					<issue>12</issue>
					<fpage>1</fpage>
					<lpage>38</lpage>
					<pub-id pub-id-type="doi">10.1145/3571730</pub-id>
				</element-citation>
			</ref>
			<ref id="B81">
				<mixed-citation>Jiao, W., Wang, W., Huang, J., Wang, X., &amp; Tu, Z. (2023). Is ChatGPT A Good Translator? A Preliminary Study. ArXiv, abs/2301.0. https://doi.org/https://doi.org/10.48550/arXiv.2301.08745</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Jiao</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Wang</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Huang</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Wang</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Tu</surname>
							<given-names>Z.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Is ChatGPT A Good Translator? A Preliminary Study</article-title>
					<source>ArXiv, abs/2301.0.</source>
					<pub-id pub-id-type="doi">10.48550/arXiv.2301.08745</pub-id>
				</element-citation>
			</ref>
			<ref id="B82">
				<mixed-citation>Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., … Kasneci, G. (2023). ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education. Preprint. https://doi.org/https://doi.org/10.35542/osf.io/5er8f</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Kasneci</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Sessler</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Küchemann</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Bannert</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Dementieva</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Fischer</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Gasser</surname>
							<given-names>U.</given-names>
						</name>
						<name>
							<surname>Groh</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Günnemann</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Hüllermeier</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Krusche</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Kutyniok</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Michaeli</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Nerdel</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Pfeffer</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Poquet</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Sailer</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Schmidt</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Seidel</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>… Kasneci</surname>
							<given-names>G.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education</source>
					<comment>Preprint</comment>
					<pub-id pub-id-type="doi">10.35542/osf.io/5er8f</pub-id>
				</element-citation>
			</ref>
			<ref id="B83">
				<mixed-citation>Kirchner, J. H., Ahmad, L., Aaronson, S., &amp; Leike, J. (2023). New AI classifier for indicating AI-written text. OpenAI.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Kirchner</surname>
							<given-names>J. H.</given-names>
						</name>
						<name>
							<surname>Ahmad</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Aaronson</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Leike</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>New AI classifier for indicating AI-written text</source>
					<comment>OpenAI</comment>
				</element-citation>
			</ref>
			<ref id="B84">
				<mixed-citation>Kleebayoon, A., &amp; Wiwanitkit, V. (2023). Artificial Intelligence, Chatbots, Plagiarism and Basic Honesty: Comment. Cellular and Molecular Bioengineering. https://doi.org/https://doi.org/10.1007/s12195-023-00759-x</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Kleebayoon</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Wiwanitkit</surname>
							<given-names>V.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Artificial Intelligence, Chatbots, Plagiarism and Basic Honesty: Comment.</article-title>
					<source>Cellular and Molecular Bioengineering</source>
					<pub-id pub-id-type="doi">10.1007/s12195-023-00759-x</pub-id>
				</element-citation>
			</ref>
			<ref id="B85">
				<mixed-citation>Lancaster, T. (2021). Academic Dishonesty or Academic Integrity? Using Natural Language Processing (NLP) Techniques to Investigate Positive Integrity in Academic Integrity Research. Journal of Academic Ethics, 19(3), 363-383. https://doi.org/https://doi.org/10.1007/s10805-021-09422-4</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Lancaster</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Academic Dishonesty or Academic Integrity? Using Natural Language Processing (NLP) Techniques to Investigate Positive Integrity in Academic Integrity Research</article-title>
					<source>Journal of Academic Ethics</source>
					<volume>19</volume>
					<issue>3</issue>
					<fpage>363</fpage>
					<lpage>383</lpage>
					<pub-id pub-id-type="doi">10.1007/s10805-021-09422-4</pub-id>
				</element-citation>
			</ref>
			<ref id="B86">
				<mixed-citation>Li, H., Moon, J. T., Purkayastha, S., Celi, L. A., Trivedi, H., &amp; Gichoya, J. W. (2023). Ethics of large language models in medicine and medical research. <ext-link ext-link-type="uri" xlink:href="https://www.thelancet.com/digital-health">https://www.thelancet.com/digital-health</ext-link>, 5, 333-335. https://doi.org/https://doi.org/10.1016/S2589-7500(23)00083-3</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Li</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Moon</surname>
							<given-names>J. T.</given-names>
						</name>
						<name>
							<surname>Purkayastha</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Celi</surname>
							<given-names>L. A.</given-names>
						</name>
						<name>
							<surname>Trivedi</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Gichoya</surname>
							<given-names>J. W.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>Ethics of large language models in medicine and medical research</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.thelancet.com/digital-health">https://www.thelancet.com/digital-health</ext-link>
					<volume>5</volume>
					<fpage>333</fpage>
					<lpage>335</lpage>
					<pub-id pub-id-type="doi">10.1016/S2589-7500(23)00083-3</pub-id>
				</element-citation>
			</ref>
			<ref id="B87">
				<mixed-citation>Li, W., Wu, W., Chen, M., Liu, J., Xiao, X., &amp; Wu, H. (2022). Faithfulness in Natural Language Generation: A Systematic Survey of Analysis, Evaluation and Optimization Methods. ArXiv, abs/2203.0.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Li</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Wu</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Liu</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Xiao</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Wu</surname>
							<given-names>H.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Faithfulness in Natural Language Generation: A Systematic Survey of Analysis, Evaluation and Optimization Methods</article-title>
					<source>ArXiv, abs/2203.0.</source>
				</element-citation>
			</ref>
			<ref id="B88">
				<mixed-citation>Malle, B. F., Scheutz, M., &amp; Austerweil, J. L. (2017). Networks of social and moral norms in human and robot agents. En M. I. Aldinhas Ferreira, E. E. Kadar, J. Silva Sequeira, G. S. Virk, &amp; M. O. Tokhi (Eds.), A world with robots. International Conference on Robot Ethics: ICRE 2015 (pp. 3-17). Springer. https://doi.org/https://doi.org/10.1007/978-3-319-46667-5_1</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Malle</surname>
							<given-names>B. F.</given-names>
						</name>
						<name>
							<surname>Scheutz</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Austerweil</surname>
							<given-names>J. L.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<chapter-title>Networks of social and moral norms in human and robot agents</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Aldinhas Ferreira</surname>
							<given-names>M. I.</given-names>
						</name>
						<name>
							<surname>Kadar</surname>
							<given-names>E. E.</given-names>
						</name>
						<name>
							<surname>Silva Sequeira</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Virk</surname>
							<given-names>G. S.</given-names>
						</name>
						<name>
							<surname>Tokhi</surname>
							<given-names>M. O.</given-names>
						</name>
					</person-group>
					<source>A world with robots. International Conference on Robot Ethics: ICRE 2015</source>
					<fpage>3</fpage>
					<lpage>17</lpage>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-3-319-46667-5_1</pub-id>
				</element-citation>
			</ref>
			<ref id="B89">
				<mixed-citation>Melo, V. E. (2022). Fake News. Thomson Reuters La Ley.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Melo</surname>
							<given-names>V. E.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<source>Fake News</source>
					<publisher-name>Thomson Reuters La Ley</publisher-name>
				</element-citation>
			</ref>
			<ref id="B90">
				<mixed-citation>Microsoft. (2023). Introducing Microsoft 365 Copilot - your copilot for work. Microsoft. <ext-link ext-link-type="uri" xlink:href="https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/">https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>Microsoft</collab>
					</person-group>
					<year>2023</year>
					<article-title>Introducing Microsoft 365 Copilot - your copilot for work.</article-title>
					<source>Microsoft</source>
					<ext-link ext-link-type="uri" xlink:href="https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/">https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/</ext-link>
				</element-citation>
			</ref>
			<ref id="B91">
				<mixed-citation>Milmo, D. (2023a). ChatGPT reaches 100 million users two months after launch. The Guardian. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app">https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Milmo</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023a</year>
					<article-title>ChatGPT reaches 100 million users two months after launch</article-title>
					<source>The Guardian</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app">https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app</ext-link>
				</element-citation>
			</ref>
			<ref id="B92">
				<mixed-citation>Milmo, D. (2023b). Google AI chatbot Bard sends shares plummeting after it gives wrong answer. The Guardian2. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/09/google-ai-chatbot-bard-error-sends-shares-plummeting-in-battle-with-microsoft">https://www.theguardian.com/technology/2023/feb/09/google-ai-chatbot-bard-error-sends-shares-plummeting-in-battle-with-microsoft</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Milmo</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023b</year>
					<article-title>Google AI chatbot Bard sends shares plummeting after it gives wrong answer</article-title>
					<source>The Guardian2</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/09/google-ai-chatbot-bard-error-sends-shares-plummeting-in-battle-with-microsoft">https://www.theguardian.com/technology/2023/feb/09/google-ai-chatbot-bard-error-sends-shares-plummeting-in-battle-with-microsoft</ext-link>
				</element-citation>
			</ref>
			<ref id="B93">
				<mixed-citation>Miquel-Vergés, J. (2022). Nuevas tecnologías en la educación superior virtual. Las tecnologías del ultrafalso y de la traducción cara a cara. Human Review. Revista Internacional de Humanidades, 12(4), 1-20. https://doi.org/https://doi.org/10.37467/revhuman.v11.3967</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Miquel-Vergés</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Nuevas tecnologías en la educación superior virtual. Las tecnologías del ultrafalso y de la traducción cara a cara. Human Review</article-title>
					<source>Revista Internacional de Humanidades</source>
					<volume>12</volume>
					<issue>4</issue>
					<fpage>1</fpage>
					<lpage>20</lpage>
					<pub-id pub-id-type="doi">10.37467/revhuman.v11.3967</pub-id>
				</element-citation>
			</ref>
			<ref id="B94">
				<mixed-citation>Moya, B. A., Eaton, S. E., Pethrick, H., Hayden, K. A., Brennan, R., Wiens, J., McDermott, B., &amp; Lesage, J. (2023). Academic Integrity and Artificial Intelligence in Higher Education Contexts: A Rapid Scoping Review Protocol. Canadian Perspectives on Academic Integrity, 5(2), 59-75.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Moya</surname>
							<given-names>B. A.</given-names>
						</name>
						<name>
							<surname>Eaton</surname>
							<given-names>S. E.</given-names>
						</name>
						<name>
							<surname>Pethrick</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Hayden</surname>
							<given-names>K. A.</given-names>
						</name>
						<name>
							<surname>Brennan</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Wiens</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>McDermott</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Lesage</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Academic Integrity and Artificial Intelligence in Higher Education Contexts: A Rapid Scoping Review Protocol</article-title>
					<source>Canadian Perspectives on Academic Integrity</source>
					<volume>5</volume>
					<issue>2</issue>
					<fpage>59</fpage>
					<lpage>75</lpage>
				</element-citation>
			</ref>
			<ref id="B95">
				<mixed-citation>Newton, P. M. (2018). How Common Is Commercial Contract Cheating in Higher Education and Is It Increasing? A Systematic Review. Frontiers in Education, 3, 1-18. https://doi.org/https://doi.org/10.3389/feduc.2018.00067</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Newton</surname>
							<given-names>P. M.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<article-title>How Common Is Commercial Contract Cheating in Higher Education and Is It Increasing? A Systematic Review</article-title>
					<source>Frontiers in Education</source>
					<volume>3</volume>
					<fpage>1</fpage>
					<lpage>18</lpage>
					<pub-id pub-id-type="doi">10.3389/feduc.2018.00067</pub-id>
				</element-citation>
			</ref>
			<ref id="B96">
				<mixed-citation>Newton, P. M., &amp; Lang, C. (2016). Custom Essay Writers, Freelancers, and Other Paid Third Parties. En T. Bretag (Ed.), Handbook of Academic Integrity (pp. 249-271). Springer. https://doi.org/https://doi.org/10.1007/978-981-287-098-8_38</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Newton</surname>
							<given-names>P. M.</given-names>
						</name>
						<name>
							<surname>Lang</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<chapter-title>Custom Essay Writers, Freelancers, and Other Paid Third Parties</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Bretag</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<source>Handbook of Academic Integrity</source>
					<fpage>249</fpage>
					<lpage>271</lpage>
					<publisher-name>Springer</publisher-name>
					<pub-id pub-id-type="doi">10.1007/978-981-287-098-8_38</pub-id>
				</element-citation>
			</ref>
			<ref id="B97">
				<mixed-citation>OMPI. (1980). Glosario de derecho de autor y derechos conexos. Organización Mundial de Propiedad Intelectual.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>OMPI.</collab>
					</person-group>
					<year>1980</year>
					<source>Glosario de derecho de autor y derechos conexos</source>
					<publisher-name>Organización Mundial de Propiedad Intelectual</publisher-name>
				</element-citation>
			</ref>
			<ref id="B98">
				<mixed-citation>OpenAI. (s.f.). Chat GPT - Release Notes. <ext-link ext-link-type="uri" xlink:href="https://help.openai.com/en/articles/6825453-chatgpt-release-notes">https://help.openai.com/en/articles/6825453-chatgpt-release-notes</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>OpenAI</collab>
					</person-group>
					<comment>s.f.</comment>
					<source>Chat GPT - Release Notes</source>
					<ext-link ext-link-type="uri" xlink:href="https://help.openai.com/en/articles/6825453-chatgpt-release-notes">https://help.openai.com/en/articles/6825453-chatgpt-release-notes</ext-link>
				</element-citation>
			</ref>
			<ref id="B99">
				<mixed-citation>OpenAI. (2023). GPT-4 Technical Report. ArXiv, abs/2303.0. <ext-link ext-link-type="uri" xlink:href="https://api.semanticscholar.org/CorpusID:257532815">https://api.semanticscholar.org/CorpusID:257532815</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>OpenAI</collab>
					</person-group>
					<year>2023</year>
					<article-title>GPT-4 Technical Report</article-title>
					<source>ArXiv, abs/2303.0.</source>
					<ext-link ext-link-type="uri" xlink:href="https://api.semanticscholar.org/CorpusID:257532815">https://api.semanticscholar.org/CorpusID:257532815</ext-link>
				</element-citation>
			</ref>
			<ref id="B100">
				<mixed-citation>Paul, R. (2005). The state of critical thinking today. New Directions for Community Colleges, 2005(130), 27-38. https://doi.org/https://doi.org/10.1002/cc.193</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Paul</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<year>2005</year>
					<article-title>The state of critical thinking today</article-title>
					<source>New Directions for Community Colleges</source>
					<volume>2005</volume>
					<issue>130</issue>
					<fpage>27</fpage>
					<lpage>38</lpage>
					<pub-id pub-id-type="doi">10.1002/cc.193</pub-id>
				</element-citation>
			</ref>
			<ref id="B101">
				<mixed-citation>Perkins, M. (2023). Academic Integrity considerations of AI Large Language Models in the post pandemic era: ChatGPT and beyond. Journal of University Teaching &amp; Learning Practice, 20(2), 1-24. https://doi.org/https://doi.org/10.53761/1.20.02.07</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Perkins</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Academic Integrity considerations of AI Large Language Models in the post pandemic era: ChatGPT and beyond</article-title>
					<source>Journal of University Teaching &amp; Learning Practice</source>
					<volume>20</volume>
					<issue>2</issue>
					<fpage>1</fpage>
					<lpage>24</lpage>
					<pub-id pub-id-type="doi">10.53761/1.20.02.07</pub-id>
				</element-citation>
			</ref>
			<ref id="B102">
				<mixed-citation>Popova, M. (2020). Reading out of context: pornographic deepfakes, celebrity and intimacy. Porn Studies, 7(4), 367-381. https://doi.org/10.1080/23268743.2019.1675090</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Popova</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Reading out of context: pornographic deepfakes, celebrity and intimacy</article-title>
					<source>Porn Studies</source>
					<volume>7</volume>
					<issue>4</issue>
					<fpage>367</fpage>
					<lpage>381</lpage>
					<pub-id pub-id-type="doi">10.1080/23268743.2019.1675090</pub-id>
				</element-citation>
			</ref>
			<ref id="B103">
				<mixed-citation>Powers, T. M., &amp; Ganascia, J.-G. (2020). The Ethics of the Ethics of AI. EnM. Dubber , F. Pasquale , &amp; S. Das (Eds.), The Oxford Handbook of Ethics of AI (pp. 27-51). Oxford University Press. https://doi.org/https://doi.org/10.1093/oxfordhb/9780190067397.013.2</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Powers</surname>
							<given-names>T. M.</given-names>
						</name>
						<name>
							<surname>Ganascia</surname>
							<given-names>J.-G.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<chapter-title>The Ethics of the Ethics of AI</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Dubber</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Pasquale</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Das</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>The Oxford Handbook of Ethics of AI</source>
					<fpage>27</fpage>
					<lpage>51</lpage>
					<publisher-name>Oxford University Press</publisher-name>
					<pub-id pub-id-type="doi">10.1093/oxfordhb/9780190067397.013.2</pub-id>
				</element-citation>
			</ref>
			<ref id="B104">
				<mixed-citation>Qin, C., Zhang, A., Zhang, Z., Chen, J., Yasunaga, M., &amp; Yang, D. (2023). Is ChatGPT a General-Purpose Natural Language Processing Task Solver? ArXiv, abs/2302.0.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Qin</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Zhang</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Zhang</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Yasunaga</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Yang</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Is ChatGPT a General-Purpose Natural Language Processing Task Solver?</article-title>
					<source>ArXiv, abs/2302.0.</source>
				</element-citation>
			</ref>
			<ref id="B105">
				<mixed-citation>Radford, A., Narasimhan, K., Salimans, T., &amp; Sutskever, I. (2018). Improving Language Understanding by Generative Pre-Training. OpenAI. <ext-link ext-link-type="uri" xlink:href="https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf">https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Radford</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Narasimhan</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Salimans</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Sutskever</surname>
							<given-names>I.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<article-title>Improving Language Understanding by Generative Pre-Training.</article-title>
					<source>OpenAI</source>
					<ext-link ext-link-type="uri" xlink:href="https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf">https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B106">
				<mixed-citation>Rahaman, S., Ahsan, T., Anjum, N., Rahman, M., &amp; Rahman, N. (2023). The AI Race is On! Google’s Bard and OpenAI’s ChatGPT Head to Head: An Opinion Article. <ext-link ext-link-type="uri" xlink:href="https://ssrn.com/abstract=4351785">https://ssrn.com/abstract=4351785</ext-link>. https://doi.org/http://dx.doi.org/10.2139/ssrn.4351785</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Rahaman</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Ahsan</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Anjum</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Rahman</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Rahman</surname>
							<given-names>N.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>The AI Race is On! Google’s Bard and OpenAI’s ChatGPT Head to Head: An Opinion Article</source>
					<ext-link ext-link-type="uri" xlink:href="https://ssrn.com/abstract=4351785">https://ssrn.com/abstract=4351785</ext-link>
					<pub-id pub-id-type="doi">10.2139/ssrn.4351785</pub-id>
				</element-citation>
			</ref>
			<ref id="B107">
				<mixed-citation>Raj, R. J. S., Babu, S. A., Jegatheesan, A., &amp; Xavier, V. M. A. (2022). A GAN-Based Triplet FaceNet Detection Algorithm Using Deep Face Recognition for Autism Child. En J. D. Peter, A. H. Alavi, &amp; S. L. Fernandes (Eds.), Disruptive Technologies for Big Data and Cloud Applications. Proceedings of ICBDCC 2021 (pp. 177-187). Springer.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Raj</surname>
							<given-names>R. J. S.</given-names>
						</name>
						<name>
							<surname>Babu</surname>
							<given-names>S. A.</given-names>
						</name>
						<name>
							<surname>Jegatheesan</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Xavier</surname>
							<given-names>V. M. A.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<chapter-title>A GAN-Based Triplet FaceNet Detection Algorithm Using Deep Face Recognition for Autism Child</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Peter</surname>
							<given-names>J. D.</given-names>
						</name>
						<name>
							<surname>Alavi</surname>
							<given-names>A. H.</given-names>
						</name>
						<name>
							<surname>Fernandes</surname>
							<given-names>S. L.</given-names>
						</name>
					</person-group>
					<source>Disruptive Technologies for Big Data and Cloud Applications</source>
					<comment>Proceedings of ICBDCC 2021</comment>
					<fpage>177</fpage>
					<lpage>187</lpage>
					<publisher-name>Springer</publisher-name>
				</element-citation>
			</ref>
			<ref id="B108">
				<mixed-citation>Rebuffel, C., Roberti, M., Soulier, L., Scoutheeten, G., Cancelliere, R., &amp; Gallinari, P. (2022). Controlling hallucinations at word level in data-to-text generation. Data Mining and Knowledge Discovery, 36(1), 318-354. https://doi.org/10.1007/s10618-021-00801-4</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rebuffel</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Roberti</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Soulier</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Scoutheeten</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Cancelliere</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Gallinari</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Controlling hallucinations at word level in data-to-text generation</article-title>
					<source>Data Mining and Knowledge Discovery</source>
					<volume>36</volume>
					<issue>1</issue>
					<fpage>318</fpage>
					<lpage>354</lpage>
					<pub-id pub-id-type="doi">10.1007/s10618-021-00801-4</pub-id>
				</element-citation>
			</ref>
			<ref id="B109">
				<mixed-citation>Riley, S., &amp; Alvarez, L. C. (2023). ChatGPT, Friend or Foe in the Classroom? <ext-link ext-link-type="uri" xlink:href="https://otl.du.edu/chatgpt-friend-or-foe-in-the-classroom/">https://otl.du.edu/chatgpt-friend-or-foe-in-the-classroom/</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Riley</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Alvarez</surname>
							<given-names>L. C.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<source>ChatGPT, Friend or Foe in the Classroom?</source>
					<ext-link ext-link-type="uri" xlink:href="https://otl.du.edu/chatgpt-friend-or-foe-in-the-classroom/">https://otl.du.edu/chatgpt-friend-or-foe-in-the-classroom/</ext-link>
				</element-citation>
			</ref>
			<ref id="B110">
				<mixed-citation>Roe, J., &amp; Perkins, M. (2022). What are Automated Paraphrasing Tools and how do we address them? A review of a growing threat to academic integrity. International Journal for Educational Integrity, 18(1), 15. https://doi.org/https://doi.org/10.1007/s40979-022-00109-w</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Roe</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Perkins</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>What are Automated Paraphrasing Tools and how do we address them? A review of a growing threat to academic integrity</article-title>
					<source>International Journal for Educational Integrity</source>
					<volume>18</volume>
					<issue>1</issue>
					<fpage>15</fpage>
					<lpage>15</lpage>
					<pub-id pub-id-type="doi">10.1007/s40979-022-00109-w</pub-id>
				</element-citation>
			</ref>
			<ref id="B111">
				<mixed-citation>Rogerson, A. M., &amp; McCarthy, G. (2017). Using Internet based paraphrasing tools: Original work, patchwriting or facilitated plagiarism? International Journal for Educational Integrity, 13(1), 2. https://doi.org/https://doi.org/10.1007/s40979-016-0013-y</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rogerson</surname>
							<given-names>A. M.</given-names>
						</name>
						<name>
							<surname>McCarthy</surname>
							<given-names>G.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>Using Internet based paraphrasing tools: Original work, patchwriting or facilitated plagiarism?</article-title>
					<source>International Journal for Educational Integrity</source>
					<volume>13</volume>
					<issue>1</issue>
					<fpage>2</fpage>
					<lpage>2</lpage>
					<pub-id pub-id-type="doi">10.1007/s40979-016-0013-y</pub-id>
				</element-citation>
			</ref>
			<ref id="B112">
				<mixed-citation>Rojas Chavarro, M., &amp; Olarte Collazos, J. (2010). Plagio en el ámbito académico. Revista Colombiana de Anestesiología, 39(4), 537-538. <ext-link ext-link-type="uri" xlink:href="http://www.scielo.org.co/pdf/rca/v38n4/v38n4a10.pdf">http://www.scielo.org.co/pdf/rca/v38n4/v38n4a10.pdf</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rojas Chavarro</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Olarte Collazos</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2010</year>
					<article-title>Plagio en el ámbito académico</article-title>
					<source>Revista Colombiana de Anestesiología</source>
					<volume>39</volume>
					<issue>4</issue>
					<fpage>537</fpage>
					<lpage>538</lpage>
					<ext-link ext-link-type="uri" xlink:href="http://www.scielo.org.co/pdf/rca/v38n4/v38n4a10.pdf">http://www.scielo.org.co/pdf/rca/v38n4/v38n4a10.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B113">
				<mixed-citation>Rudolph, J., Tan, S., &amp; Tan, S. (2023). ChatGPT: Bullshit spewer or the end of traditional assessments in higher education? Journal of Applied Learning &amp; Teaching, 6(1), 1-22. https://doi.org/https://doi.org/10.37074/jalt.2023.6.1.9</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rudolph</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Tan</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Tan</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>ChatGPT: Bullshit spewer or the end of traditional assessments in higher education?</article-title>
					<source>Journal of Applied Learning &amp; Teaching</source>
					<volume>6</volume>
					<issue>1</issue>
					<fpage>1</fpage>
					<lpage>22</lpage>
					<pub-id pub-id-type="doi">10.37074/jalt.2023.6.1.9</pub-id>
				</element-citation>
			</ref>
			<ref id="B114">
				<mixed-citation>Russell, S., &amp; Norvig, P. (2020). Artificial intelligence: A modern approach (4a ed.). Pearson.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Russell</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Norvig</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<source>Artificial intelligence: A modern approach</source>
					<edition>4a</edition>
					<publisher-name>Pearson</publisher-name>
				</element-citation>
			</ref>
			<ref id="B115">
				<mixed-citation>Siau, K., &amp; Wang, W. (2020). Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI. Journal of Database Management (JDM), 31(2), 74-87. https://doi.org/https://doi.org/10.4018/jdm.2020040105</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Siau</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Wang</surname>
							<given-names>W.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI.</article-title>
					<source>Journal of Database Management (JDM)</source>
					<volume>31</volume>
					<issue>2</issue>
					<fpage>74</fpage>
					<lpage>87</lpage>
					<pub-id pub-id-type="doi">10.4018/jdm.2020040105</pub-id>
				</element-citation>
			</ref>
			<ref id="B116">
				<mixed-citation>Simó Soler, E. (2023). Retos jurídicos derivados de la inteligencia articial generativa. Arxius, 2. https://doi.org/https://doi.org/10.31009/InDret.2023.i2.11</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Simó Soler</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Retos jurídicos derivados de la inteligencia articial generativa</article-title>
					<source>Arxius, 2</source>
					<pub-id pub-id-type="doi">10.31009/InDret.2023.i2.11</pub-id>
				</element-citation>
			</ref>
			<ref id="B117">
				<mixed-citation>Soule, D., Puram, A., Westerman, G., &amp; Bonnet, D. (2016). Becoming a Digital Organization: The Journey to Digital Dexterity (Working Paper) (N.o 301). <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2697688">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2697688</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Soule</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Puram</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Westerman</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Bonnet</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<source>Becoming a Digital Organization: The Journey to Digital Dexterity</source>
					<comment>Working Paper</comment>
					<issue>301</issue>
					<ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2697688">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2697688</ext-link>
				</element-citation>
			</ref>
			<ref id="B118">
				<mixed-citation>Sparrow, J. (2022). ‘Full-on robot writing’: the artificial intelligence challenge facing universities. The Guardian. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/australia-news/2022/nov/19/full-on-robot-writing-the-artificial-intelligence-challenge-facing-universities">https://www.theguardian.com/australia-news/2022/nov/19/full-on-robot-writing-the-artificial-intelligence-challenge-facing-universities</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Sparrow</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>‘Full-on robot writing’: the artificial intelligence challenge facing universities</article-title>
					<source>The Guardian</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/australia-news/2022/nov/19/full-on-robot-writing-the-artificial-intelligence-challenge-facing-universities">https://www.theguardian.com/australia-news/2022/nov/19/full-on-robot-writing-the-artificial-intelligence-challenge-facing-universities</ext-link>
				</element-citation>
			</ref>
			<ref id="B119">
				<mixed-citation>Spivak, B., &amp; Shepherd, S. (2021). Ethics, Artificial Intelligence, and Risk Assessment. The journal of the American Academy of Psychiatry and the Law, 49. https://doi.org/10.29158/JAAPL.210066-21</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Spivak</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Shepherd</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Ethics, Artificial Intelligence, and Risk Assessment.</article-title>
					<source>The journal of the American Academy of Psychiatry and the Law</source>
					<volume>49</volume>
					<pub-id pub-id-type="doi">10.29158/JAAPL.210066-21</pub-id>
				</element-citation>
			</ref>
			<ref id="B120">
				<mixed-citation>Stuber-McEwen, D., Wiseley, P., &amp; Hoggatt, S. (2009). Point, Click, and Cheat: Frequency and Type of Academic Dishonesty in the Virtual Classroom. Online Journal of Distance Learning Administration, 12(3).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Stuber-McEwen</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Wiseley</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Hoggatt</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2009</year>
					<article-title>Point, Click, and Cheat: Frequency and Type of Academic Dishonesty in the Virtual Classroom</article-title>
					<source>Online Journal of Distance Learning Administration</source>
					<volume>12</volume>
					<issue>3</issue>
				</element-citation>
			</ref>
			<ref id="B121">
				<mixed-citation>Susnjak, T. (2022). ChatGPT: The End of Online Exam Integrity? ArXiv, abs/2212.0.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Susnjak</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>ChatGPT: The End of Online Exam Integrity?</article-title>
					<source>ArXiv, abs/2212.0.</source>
				</element-citation>
			</ref>
			<ref id="B122">
				<mixed-citation>Talan, T., &amp; Kalinkara, Y. (2023). The Role of Artificial Intelligence in Higher Education: ChatGPT Assessment for Anatomy Course. International Journal of Management Information Systems and Computer Science, 7(1), 33-40. https://doi.org/http://dx.doi.org/10.33461/uybisbbd.1244777</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Talan</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Kalinkara</surname>
							<given-names>Y.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>The Role of Artificial Intelligence in Higher Education: ChatGPT Assessment for Anatomy Course</article-title>
					<source>International Journal of Management Information Systems and Computer Science</source>
					<volume>7</volume>
					<issue>1</issue>
					<fpage>33</fpage>
					<lpage>40</lpage>
					<pub-id pub-id-type="doi">10.33461/uybisbbd.1244777</pub-id>
				</element-citation>
			</ref>
			<ref id="B123">
				<mixed-citation>Taylor, L. (2023). Colombian judge says he used ChatGPT in ruling. The Guardian. <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling">https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Taylor</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Colombian judge says he used ChatGPT in ruling.</article-title>
					<source>The Guardian</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling">https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling</ext-link>
				</element-citation>
			</ref>
			<ref id="B124">
				<mixed-citation>Tiku, N. (2022). The Google engineer who thinks the company’s AI has come to life. The Washington Post. <ext-link ext-link-type="uri" xlink:href="https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/">https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Tiku</surname>
							<given-names>N.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>The Google engineer who thinks the company’s AI has come to life.</article-title>
					<source>The Washington Post</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/">https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/</ext-link>
				</element-citation>
			</ref>
			<ref id="B125">
				<mixed-citation>Tolosana, R., Vera-Rodriguez, R., Fierrez, J., Morales, A., &amp; Ortega-Garcia, J. (2022). An Introduction to Digital Face Manipulation. En C. Rathgeb, R. Vera-Rodriguez , R. Tolosana, &amp; C. Busch (Eds.), Handbook of Digital Face Manipulation and Detection. From DeepFakes to Morphing Attacks (pp. 3-26). Springer.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Tolosana</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Vera-Rodriguez</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Fierrez</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Morales</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Ortega-Garcia</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<chapter-title>An Introduction to Digital Face Manipulation</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Rathgeb</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Vera-Rodriguez</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Tolosana</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Busch</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Handbook of Digital Face Manipulation and Detection. From DeepFakes to Morphing Attacks</source>
					<fpage>3</fpage>
					<lpage>26</lpage>
					<publisher-name>Springer</publisher-name>
				</element-citation>
			</ref>
			<ref id="B126">
				<mixed-citation>van der Sloot, B., &amp; Wagensveld, Y. (2022). Deepfakes: regulatory challenges for the synthetic society. Computer Law &amp; Security Review, 46, 105716. https://doi.org/https://doi.org/10.1016/j.clsr.2022.105716</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>van der Sloot</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Wagensveld</surname>
							<given-names>Y.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Deepfakes: regulatory challenges for the synthetic society.</article-title>
					<source>Computer Law &amp; Security Review</source>
					<volume>46</volume>
					<elocation-id>105716</elocation-id>
					<pub-id pub-id-type="doi">10.1016/j.clsr.2022.105716</pub-id>
				</element-citation>
			</ref>
			<ref id="B127">
				<mixed-citation>Vanem, E. (2012). Ethics and fundamental principles of risk acceptance criteria. Safety Science, 50, 958-967. https://doi.org/https://doi.org/10.1016/j.ssci.2011.12.030</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Vanem</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2012</year>
					<article-title>Ethics and fundamental principles of risk acceptance criteria</article-title>
					<source>Safety Science</source>
					<volume>50</volume>
					<fpage>958</fpage>
					<lpage>967</lpage>
					<pub-id pub-id-type="doi">10.1016/j.ssci.2011.12.030</pub-id>
				</element-citation>
			</ref>
			<ref id="B128">
				<mixed-citation>Weidinger, L., Mellor, J. F. J., Rauh, M., Griffin, C., Uesato, J., Huang, P.-S., Cheng, M., Glaese, M., Balle, B., Kasirzadeh, A., Kenton, Z., Brown, S. M., Hawkins, W. T., Stepleton, T., Biles, C., Birhane, A., Haas, J., Rimell, L., Hendricks, L. A., … Gabriel, I. (2021). Ethical and social risks of harm from Language Models. ArXiv, abs/2112.0. https://doi.org/https://doi.org/10.48550/arXiv.2112.04359</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Weidinger</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Mellor</surname>
							<given-names>J. F. J.</given-names>
						</name>
						<name>
							<surname>Rauh</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Griffin</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Uesato</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Huang</surname>
							<given-names>P.-S.</given-names>
						</name>
						<name>
							<surname>Cheng</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Glaese</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Balle</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Kasirzadeh</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Kenton</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Brown</surname>
							<given-names>S. M.</given-names>
						</name>
						<name>
							<surname>Hawkins</surname>
							<given-names>W. T.</given-names>
						</name>
						<name>
							<surname>Stepleton</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Biles</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Birhane</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Haas</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Rimell</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Hendricks</surname>
							<given-names>L. A.</given-names>
						</name>
						<name>
							<surname>… Gabriel</surname>
							<given-names>I.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Ethical and social risks of harm from Language Models.</article-title>
					<source>ArXiv, abs/2112.0.</source>
					<pub-id pub-id-type="doi">10.48550/arXiv.2112.04359</pub-id>
				</element-citation>
			</ref>
			<ref id="B129">
				<mixed-citation>Whitby, B. (2011). On Computable Morality An Examination of Machines as Moral Advisors. En M. Anderson &amp; S. L. Anderson (Eds.), Machine Ethics (pp. 138-150). Cambridge University Press.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Whitby</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<year>2011</year>
					<chapter-title>On Computable Morality An Examination of Machines as Moral Advisors</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Anderson</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Anderson</surname>
							<given-names>S. L.</given-names>
						</name>
					</person-group>
					<source>Machine Ethics</source>
					<fpage>138</fpage>
					<lpage>150</lpage>
					<publisher-name>Cambridge University Press.</publisher-name>
				</element-citation>
			</ref>
			<ref id="B130">
				<mixed-citation>Winter, R., &amp; Salter, A. (2020). DeepFakes: uncovering hardcore open source on GitHub. Porn Studies, 7(4), 382-397. https://doi.org/https://doi.org/10.1080/23268743.2019.1642794</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Winter</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Salter</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>DeepFakes: uncovering hardcore open source on GitHub</article-title>
					<source>Porn Studies</source>
					<volume>7</volume>
					<issue>4</issue>
					<fpage>382</fpage>
					<lpage>397</lpage>
					<pub-id pub-id-type="doi">10.1080/23268743.2019.1642794</pub-id>
				</element-citation>
			</ref>
			<ref id="B131">
				<mixed-citation>Xiao, Y., &amp; Wang, W. Y. (2021). On Hallucination and Predictive Uncertainty in Conditional Language Generation. ArXiv, abs/2103.1.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Xiao</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Wang</surname>
							<given-names>W. Y.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>On Hallucination and Predictive Uncertainty in Conditional Language Generation</article-title>
					<source>ArXiv, abs/2103.1.</source>
				</element-citation>
			</ref>
			<ref id="B132">
				<mixed-citation>Yan, L., Sha, L., Zhao, L., Li, Y.-S., Maldonado, R. M., Chen, G., Li, X., Jin, Y., &amp; Ga\vsević, D. (2023). Practical and Ethical Challenges of Large Language Models in Education: A Systematic Literature Review. ArXiv, abs/2303.1. https://doi.org/https://doi.org/10.48550/arXiv.2303.13379</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Yan</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Sha</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Zhao</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>Y.-S.</given-names>
						</name>
						<name>
							<surname>Maldonado</surname>
							<given-names>R. M.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Jin</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Ga\vsević</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<year>2023</year>
					<article-title>Practical and Ethical Challenges of Large Language Models in Education: A Systematic Literature Review</article-title>
					<source>ArXiv, abs/2303.1.</source>
					<pub-id pub-id-type="doi">10.48550/arXiv.2303.13379</pub-id>
				</element-citation>
			</ref>
			<ref id="B133">
				<mixed-citation>Yapo, A., &amp; Weiss, J. (2018). Ethical Implications of Bias in Machine Learning. Proceedings of the Annual Hawaii International Conference on System Sciences. https://doi.org/https://doi.org/10.24251/hicss.2018.668</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Yapo</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Weiss</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<source>Ethical Implications of Bias in Machine Learning</source>
					<conf-name>System Sciences</conf-name>
					<pub-id pub-id-type="doi">10.24251/hicss.2018.668</pub-id>
				</element-citation>
			</ref>
			<ref id="B134">
				<mixed-citation>Yeung, K. (2019). Responsibility and AI. Council of Europe. <ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/responsability-and-ai-en/168097d9c5">https://rm.coe.int/responsability-and-ai-en/168097d9c5</ext-link>
				</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>Yeung</surname>
							<given-names>K.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Responsibility and AI.</article-title>
					<source>Council of Europe</source>
					<ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/responsability-and-ai-en/168097d9c5">https://rm.coe.int/responsability-and-ai-en/168097d9c5</ext-link>
				</element-citation>
			</ref>
			<ref id="B135">
				<mixed-citation>Zhang, M., &amp; Li, J. (2021). A commentary of GPT-3 in MIT Technology Review 2021. Fundamental Research, 1(6), 831-833. https://doi.org/https://doi.org/10.1016/j.fmre.2021.11.011</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Zhang</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>A commentary of GPT-3 in MIT Technology Review 2021.</article-title>
					<source>Fundamental Research</source>
					<volume>1</volume>
					<issue>6</issue>
					<fpage>831</fpage>
					<lpage>833</lpage>
					<pub-id pub-id-type="doi">10.1016/j.fmre.2021.11.011</pub-id>
				</element-citation>
			</ref>
		</ref-list>
		<ref-list>
			<title>Jurisprudencia, normativa y otros documentos legales</title>
			<ref id="B136">
				<mixed-citation>Ley 2213, Por medio de la cual se establece la vigencia permanente del decreto legislativo 806 de 2020 y se adoptan medidas para implementar las tecnologías de la información y las comunicaciones en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar la atención a los usuarios del servicio de justicia y se dictan otras disposiciones (Congreso de Colombia 13 de junio de 2022).</mixed-citation>
				<element-citation publication-type="legal-doc">
					<source>Ley 2213, Por medio de la cual se establece la vigencia permanente del decreto legislativo 806 de 2020 y se adoptan medidas para implementar las tecnologías de la información y las comunicaciones en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar la atención a los usuarios del servicio de justicia y se dictan otras disposiciones</source>
					<person-group person-group-type="author">
						<collab>Congreso de Colombia</collab>
					</person-group>
					<year>2022</year>
				</element-citation>
			</ref>
			<ref id="B137">
				<mixed-citation>Carlos Antonio Urquieta Salazar c/ Margarita Leonor Cid Lizondo, Sentencia Rol 2595-2009 (Octavo Juzgado de Garantía de Santiago [Chile], 27 de mayo de 2011). <ext-link ext-link-type="uri" xlink:href="https://juris.pjud.cl/busqueda/u?q7av">https://juris.pjud.cl/busqueda/u?q7av</ext-link>
				</mixed-citation>
				<element-citation publication-type="legal-doc">
					<source>Carlos Antonio Urquieta Salazar c/ Margarita Leonor Cid Lizondo, Sentencia Rol 2595-2009</source>
					<person-group person-group-type="author">
						<collab>Octavo Juzgado de Garantía de Santiago [Chile</collab>
					</person-group>
					<year>2011</year>
					<ext-link ext-link-type="uri" xlink:href="https://juris.pjud.cl/busqueda/u?q7av">https://juris.pjud.cl/busqueda/u?q7av</ext-link>
				</element-citation>
			</ref>
			<ref id="B138">
				<mixed-citation>Salvador Espitia Chávez c/ Salud Total E.P.S, Sentencia N.° 32 (Juzgado 1.° Laboral del Circuito de Cartagena [Colombia], 30 de enero de 2023).</mixed-citation>
				<element-citation publication-type="legal-doc">
					<source>Salvador Espitia Chávez c/ Salud Total E.P.S, Sentencia N.° 32</source>
					<person-group person-group-type="author">
						<collab>Juzgado 1.° Laboral del Circuito de Cartagena [Colombia</collab>
					</person-group>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B139">
				<mixed-citation>Sentencia Rol 2595-2009, de 27 de mayo de 2011, (Octavo Juzgado de Garantía de Santiago [Chile]). <ext-link ext-link-type="uri" xlink:href="https://juris.pjud.cl/busqueda/u?q7av">https://juris.pjud.cl/busqueda/u?q7av</ext-link>
				</mixed-citation>
				<element-citation publication-type="legal-doc">
					<source>Sentencia Rol 2595-2009</source>
					<year>2011</year>
					<person-group person-group-type="author">
						<collab>Octavo Juzgado de Garantía de Santiago [Chile</collab>
					</person-group>
					<ext-link ext-link-type="uri" xlink:href="https://juris.pjud.cl/busqueda/u?q7av">https://juris.pjud.cl/busqueda/u?q7av</ext-link>
				</element-citation>
			</ref>
		</ref-list>
		<fn-group>
			<fn fn-type="supported-by" id="fn1">
				<label>*</label>
				<p>Este artículo se ha elaborado en el marco del Proyecto Fondecyt de Iniciación 2023 N.° 11230216, financiado por la Agencia Nacional de Investigación y Desarrollo del Gobierno de Chile, titulado «Aplicación del Derecho Penal a la Inteligencia Artificial», y del que su autor es investigador responsable.</p>
			</fn>
			<fn fn-type="other" id="fn3">
				<label>1</label>
				<p>En un esfuerzo por entregar una definición más comprensiva de la IA, Russell y Norvig (2020) distinguen cuatro enfoques definitorios, distinción que aún tiene vigencia. El primero, el «enfoque del test de Turing», plantea que la IA es aquella tecnología capaz de interactuar verbalmente con un ser humano sin que este pueda percatarse de que está conversando con una máquina. El segundo, el «enfoque cognitivo», propone que IA es aquella tecnología que piensa como un ser humano en el sentido en que ha sido determinado por la ciencia cognitiva. Se trata de que las máquinas inteligentes resuelvan problemas siguiendo los mismos pasos de razonamiento que un ser humano enfrentado al mismo problema. El tercero, el «enfoque de las leyes del pensamiento», plantea que IA es aquella tecnología capaz de efectuar inferencias correctas; es decir, de aplicar las leyes de la lógica en forma autónoma. En este enfoque, la IA se describe como aquella con la capacidad suficiente de tomar la descripción de un problema expresado en notación lógica y encontrar la solución, si ella existe. Y el cuarto, el «enfoque del agente racional», considera que la IA es aquella capaz de tomar los datos del mundo externo, procesarlos y decidir cursos de acción y soluciones racionales a los problemas que se presentan. La racionalidad implica la correcta construcción de inferencias lógicas; adicionalmente, la racionalidad también se integra de algo que está más allá de las meras inferencias lógicas, para lo cual la IA requiere aplicar conocimientos previos del mundo circundante (pp. 5-8).</p>
			</fn>
			<fn fn-type="other" id="fn4">
				<label>2</label>
				<p>El término deepfake (traducido por algunos como «ultrafalso» —por ejemplo, García-Ull [2021], Miquel-Vergés [2022] y Simó Soler [2023]—) es una denominación genérica que se utiliza para designar contenido digital de vídeo, imágenes u otro completa o parcialmente fabricado, o la manipulación y transformación de contenido previamente existente (Van der Sloot y Wagensveld, 2022, p. 1) con la ayuda de aplicaciones que funcionan con base en técnicas de deep learning (Tolosana et al., 2022, p. 4). Aunque la fabricación de imágenes o su manipulación son fenómenos antiguos, el uso de tecnología de IA ha permitido que el proceso de creación o manipulación se haga marcadamente más fácil, rápido y barato, facilitando obtener resultados más convincentes (Winter y Salter, 2020, p. 2). Estas técnicas han sido utilizadas en actividades como la sátira política, la generación de fakenews (informaciones falsas, algunas de ellas generadas con la ayuda de esas técnicas —Alibašić y Rose [2019, p. 465], y Melo [2022]—), y de pornfakes (vídeos que muestran, generalmente, el rostro de mujeres famosas en escenas de contenido sexual o pornográfico —Harris [2019], Brown y Fleming [2020], y Popova [2020]—). A la fecha, el fenómeno de las deepfakes representa varios desafíos jurídicos y políticos (Chesney y Citron, 2019).</p>
			</fn>
			<fn fn-type="other" id="fn5">
				<label>3</label>
				<p>Los Modelos de Lenguaje (ML) son modelizaciones de un idioma y de cómo este es utilizado por los seres humanos, estando compuesto por palabras con «significado» y reglas gramaticales, de sintaxis y de ortografía. La aplicación funciona con probabilidades, es decir, puede predecir qué palabra debería venir a continuación de otra, de acuerdo con un contexto determinado, gracias a <italic>tokens</italic> (unidades que corresponden a partes de ese idioma) y vectores de <italic>embedding</italic> (que permiten ir fijando vínculos entre las palabras). Tanto los <italic>tokens</italic> aprendidos como los requerimientos del usuario (<italic>prompts</italic>) son transformados a lenguaje de máquinas (secuencias numéricas binarias) que permiten a la aplicación reconocer tales secuencias y detectar patrones. Sobre la base de esos patrones, el <italic>chatbot</italic> es capaz de generar texto que, al ser leído por un humano, es coherente y tiene lógica y sentido, aunque la información generada no sea necesariamente real o correcta. Dentro de los ML se distinguen los de «gran tamaño» (<italic>Large Languaje Models</italic>), concepto referido al volumen de datos usados en el proceso de entrenamiento de la aplicación y la cantidad de parámetros utilizados. Se puede encontrar una síntesis del tamaño de las bases de datos de entrenamiento de varias aplicaciones de modelo de lenguaje en Bender <italic>et al.</italic> (2021, p. 611, tabla 1).</p>
			</fn>
			<fn fn-type="other" id="fn6">
				<label>4</label>
				<p>Una revisión sistemática de estudios empíricos sobre el uso de modelos de lenguaje de gran tamaño en aspectos educacionales puede revisarse en Yan <italic>et al.</italic> (2023).</p>
			</fn>
			<fn fn-type="other" id="fn7">
				<label>5</label>
				<p>En junio de 2018, científicos de OpenAI publicaron el <italic>paper</italic> «Improving Language Understanding by Generative Pre-Training» en versión <italic>preprint</italic> en la propia web de OpenAI (Radford et al., 2018) por entonces, una organización sin fines de lucro. El trabajo, firmado por Alec Radford, Karthik Narasimhan, Tim Salimans e Ilya Sutskever, es el comienzo de ChatGPT.</p>
			</fn>
			<fn fn-type="other" id="fn8">
				<label>6</label>
				<p>Ver Bartz (2023).</p>
			</fn>
			<fn fn-type="other" id="fn9">
				<label>7</label>
				<p>Ver Milmo (2023a).</p>
			</fn>
			<fn fn-type="other" id="fn10">
				<label>8</label>
				<p>Helberger y Diakopoulos (2023) analizan los ajustes que la Unión Europea está intentando introducir a su proyecto de regulación sobre IA a partir de la difusión de ChatGPT y cómo esta tecnología no calza en los moldes tradicionales con los que se analiza y regula la IA en general.</p>
			</fn>
			<fn fn-type="other" id="fn11">
				<label>9</label>
				<p>La versión ChatGPT-4 fue anunciada el 15 de marzo de 2023. Ella es descrita por OpenAI como un «gran modelo multimodal (que acepta entradas de texto y emite salidas de texto hoy, con entradas de imágenes en el futuro) que puede resolver problemas difíciles con mayor precisión que cualquiera de nuestros modelos anteriores, gracias a su conocimiento general más amplio y capacidades de razonamiento avanzadas» (OpenAI, 2023). Sin embargo, la compañía ha sido renuente en proporcionar públicamente información que respalde las anunciadas características de su nuevo producto (Heaven, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn12">
				<label>10</label>
				<p>Entre los otros grandes modelos de lenguaje se pueden mencionar BERT, GLaM y LaMDA, todos de Google; Fairseq y LLaMA, de Meta; GPT-Neo, GPT-J y GPT-NeoX, de EleutherAI; Claude, de Anthropic; Megatron-Turing NLG, de Microsoft y Nvidia; Chinchilla, de DeepMind; YaLM 100B, de Yandex; BLOOM, de Hugging Face; y Alexa, de Amazon.</p>
			</fn>
			<fn fn-type="other" id="fn13">
				<label>11</label>
				<p>Google, por ejemplo, ha tenido varios problemas con su <italic>chatbot</italic> conversacional, Bard, y la tecnología que lo soporta, LaMDA (<italic>Language Model for Dialogue Applications</italic>). Además de los errores en los que incurrió sobre el telescopio espacial James Webb en su presentación pública (Milmo, 2023b), que le significó a Google una fuerte baja del precio de sus acciones (Floridi, 2023, p. 15), la tecnológica debió enfrentar el conflicto generado por uno de sus ingenieros, que decidió hacer públicas sus preocupaciones por la eventual capacidad sintiente que habría desarrollado el <italic>chatbot</italic> (Tiku, 2022). Por su parte, Meta, propietaria de Facebook, Instagram y WhastApp, ha efectuado anuncios sobre su propia aplicación conversacional basada en <italic>deep learning</italic>, que podría llamarse LlaMa (Hern, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn14">
				<label>12</label>
				<p>Este modelo de generación de lenguaje preentrenado se basa en la arquitectura <italic>Transformer</italic>, es el de más reciente desarrollo y muestra mejores rendimientos que los otros tres modelos existentes —el basado en ejemplos, el estadístico y el basado en redes neuronales— en la ejecución de tareas. Su mayor debilidad se encuentra, sin embargo, en que tiene menores niveles de fidelidad que los otros modelos (Li <italic>et al.</italic>, 2022).</p>
			</fn>
			<fn fn-type="other" id="fn15">
				<label>13</label>
				<p>Aunque existe la posibilidad de pagar una suscripción que da acceso a la versión Plus con mejoras en rendimiento y tiempos de respuesta respecto de la versión gratuita. Se puede a ceder a ChatGTP a través del siguiente enlace: https://openai.com</p>
			</fn>
			<fn fn-type="other" id="fn16">
				<label>14</label>
				<p>Ya sea desde un navegador o <italic>browser</italic> en un computador de escritorio o desde un dispositivo móvil (como un <italic>smartphone</italic> o una <italic>tablet</italic>), desde la web de OpenAI o a través de API y extensiones desarrolladas para integrar ChatGPT con otras aplicaciones.</p>
			</fn>
			<fn fn-type="other" id="fn17">
				<label>15</label>
				<p>Se estima que ChatGPT fue entrenado con un conjunto de datos compuesto por trescientos mil millones de palabras (Helberger y Diakopoulos, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn18">
				<label>16</label>
				<p>Generadas con la versión liberada el 14 de marzo de 2023 (OpenAI, s.f.).</p>
			</fn>
			<fn fn-type="other" id="fn19">
				<label>17</label>
				<p>Se trata de la sentencia del Juzgado 1.° Laboral del Circuito de Cartagena, de 30 de enero de 2023. En el proceso se discutía el alcance de las prestaciones de seguridad social para un niño con síndrome autista. Recurriendo a la Ley 2213 de 13 de junio de 2022, «Por medio de la cual se establece la vigencia permanente del decreto legislativo 806 de 2020 y se adoptan medidas para implementar las tecnologías de la información y las comunicaciones en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar la atención a los usuarios del servicio de justicia y se dictan otras disposiciones», el tribunal —luego de expresar sus fundamentos jurídicos—, agrega que se decidió «extender los argumentos de la decisión adoptada, conforme al uso de inteligencia artificial (IA)». La sentencia deja constancia de que se le formularon varias preguntas a ChatGPT sobre la cuestión debatida como, por ejemplo: «¿El menor autista está exonerado de pagar cuotas moderadoras en sus terapias?», «¿Las acciones de tutela en estos casos se deben conceder?», «¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud?» y «¿La jurisprudencia de la Corte Constitucional ha tomado decisiones favorables en casos similares?». La sentencia consigna las respuestas generadas por la aplicación y advierte que «[e]l propósito de incluir estos textos producto de la IA no es en manera alguna reemplazar la decisión del Juez. Lo que realmente buscamos es optimizar los tiempos empleados en redacción de sentencias, previa corroboración de la información suministrada por IA» (sentencia de 30 de enero de 2023, citada, §11). En todo caso, no se alcanza a visualizar de qué forma el uso de ChatGPT podría lograr los propósitos declarados, sobre todo si en el proceso de dictado de la sentencia el tribunal recurre a la aplicación solo después de exponer los fundamentos construidos por el juez. De todos modos, este uso concreto de la IA fue objeto de atención mediática; por ejemplo, el hecho fue cubierto por The Guardian (Taylor, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn20">
				<label>18</label>
				<p>Generative Pre-trained Transformer 2 (GPT-2) de OpenAI, lanzado en noviembre de 2019, y el Generative Pre-trained Transformer 3 (GPT-3), de la misma empresa y lanzado en junio de 2020 (Zhang y Li, 2021; Perkins, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn21">
				<label>19</label>
				<p>Como las funcionalidades que ya ha desarrollado ChatGPT-4. Ver nota al pie N.° 9.</p>
			</fn>
			<fn fn-type="other" id="fn22">
				<label>20</label>
				<p>García-Villegas <italic>et al.</italic> (2016) explican que en el contexto latinoamericano se prefieren otras expresiones para dar cuenta del fenómeno, tales «fraude» o «incumplimiento de deberes académicos»; es decir, denominaciones que ponen el acento en sus aspectos negativos a diferencia de la de «integridad académica», más propia del entorno angloamericano, que destaca un enfoque positivo (pp. 162-163).</p>
			</fn>
			<fn fn-type="other" id="fn23">
				<label>21</label>
				<p>Microsoft ha anunciado la integración de IA a su paquete de aplicaciones de productividad 365 Copilot, antes conocida como Office. Esto significa que Word, Excel, PowerPoint, Outlook y Teams, entre otras, pasarán a estar dotadas de la capacidad de desarrollar acciones en forma autónoma (Microsoft, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn24">
				<label>22</label>
				<p>El problema parece presentarse no solo a nivel de estudios conducentes a un grado, sino también en los estudios de doctorado. Aitchison y Mowbray (2016) han estudiado «servicios de apoyo a la escritura», generalmente provistos <italic>online</italic> y especialmente dirigidos a estudiantes de doctorado que sucumben ante la constante presión por publicar.</p>
			</fn>
			<fn fn-type="other" id="fn25">
				<label>23</label>
				<p>Basta una simple búsqueda en internet para encontrar sitios en los que se ofrece el servicio de «asesoramiento» en la redacción de memorias y tesis. Es muy probable que la fórmula de la asesoría sea un eufemismo para referirse a la venta de textos escritos por terceras personas que el adquirente presentará como elaborados por él mismo.</p>
			</fn>
			<fn fn-type="other" id="fn26">
				<label>24</label>
				<p>Texto generado por ChatGPT Mar 14 version. Se puede revisar la aplicación en el siguiente enlace: https://chat.openai.com/</p>
			</fn>
			<fn fn-type="other" id="fn27">
				<label>25</label>
				<p>Según la aplicación, el artículo fue publicado en <italic>Law and Society Review</italic> en 2017 (la referencia correcta puede consultarse en la bibliografía).</p>
			</fn>
			<fn fn-type="other" id="fn28">
				<label>26</label>
				<p>Por ejemplo, es muy poco fiable en textos cortos de menos de mil caracteres, pues puede generar falsos positivos o negativos. Además, se recomienda su uso solo para textos escritos en idioma inglés, ya que en otros idiomas «funciona significativamente peor» (Kirchner <italic>et al.</italic>, 2023). Tampoco no puede operar sobre textos predecibles, como una lista de los primeros mil números primos, porque la respuesta siempre la misma (Kirchner <italic>et al.</italic>, 2023).</p>
			</fn>
			<fn fn-type="other" id="fn29">
				<label>27</label>
				<p>Este riesgo ha sido puesto de relieve por Henry y Oliver (2022).</p>
			</fn>
			<fn fn-type="other" id="fn30">
				<label>28</label>
				<p>Se puede encontrar una tipología diferente de riesgos para la integridad académica en Kasneci <italic>et al.</italic> (2023).</p>
			</fn>
			<fn fn-type="other" id="fn31">
				<label>29</label>
				<p>A modo de ejemplo, Sparrow (2022) y Cassidi (2023) destacan los problemas que las tecnologías generativas basadas en IA suponen para los sistemas de evaluación en las universidades, mostrando cómo casa de estudio universitarias británicas y australianas han adoptado medidas para impedir las conductas deshonestas en tales evaluaciones.</p>
			</fn>
			<fn fn-type="other" id="fn32">
				<label>30</label>
				<p>Stephen Marche (2022, citado por Rudolph <italic>et al.</italic>, 2023, p. 13) ha estimado un horizonte temporal de diez años para que la academia enfrente estas nuevas realidades construidas a partir de avances tecnológicos: «dos años para que los estudiantes descubran la tecnología, tres años más para que los profesores reconozcan que los estudiantes están usando la tecnología y luego cinco años para que los administradores de la universidad decidan qué hacer, si acaso, al respecto».</p>
			</fn>
			<fn fn-type="other" id="fn33">
				<label>31</label>
				<p>Al respecto, pueden consultarse los interesantes trabajos contenidos en la obra colectiva editada por Margaret Bearman <italic>et al</italic>. (2020).</p>
			</fn>
			<fn fn-type="other" id="fn2">
				<label>**</label>
				<p>Doctor en Derecho por la Universidade da Coruña y profesor de Derecho Penal de la Universidad Católica del Maule (Chile).</p>
			</fn>
		</fn-group>
	</back>
</article>