<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.0 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.0/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.0" specific-use="sps-1.8" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">alma</journal-id>
			<journal-title-group>
				<journal-title>Almanaque</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Rev. científica</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="epub">2244-8276</issn>
			<publisher>
				<publisher-name>Universidad Metropolitana</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.58479/almanaque.2021.27</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Presentación</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>EVALUACIÓN EN EDUCACIÓN SECUNDARIA: ESTRATEGIAS Y TÉCNICAS UTILIZADAS POR EL PROFESORADO DE LA REGIÓN DE MURCIA (SPAIN)</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>ASSESSMENT IN SECONDARY EDUCATION: STRATEGIES AND TECHNIQUES USED BY TEACHERS IN THE REGION OF MURCIA</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<name>
						<surname>Carrillo García</surname>
						<given-names>María Encarnación</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
				<aff id="aff1">
					<label>1</label>
					<institution content-type="original">Universidad de Murcia, España</institution>
					<institution content-type="normalized">Universidad de Murcia</institution>
					<institution content-type="orgname">Universidad de Murcia</institution>
					<country country="ES">Spain</country>
				</aff>
			</contrib-group>
			<author-notes>
				<corresp id="c1">Correspondencia: María Encarnación Carrillo García <email>mariaencarnacion.carrillo@um.es</email>
				</corresp>
				<fn fn-type="con" id="fn1">
					<label>Cómo citar</label>
					<p> Carrillo García, M.E. (2021). Evaluación en secundaria: Estrategias y Técnicas utilizadas por el profesorado de la región de Murcia (España). Almanaque, 37, 37-62. https://doi.org/10.58479/almanaque.2021.27</p>
				</fn>
			</author-notes>
			<pub-date pub-type="epub">
				<season>Jan-Jun</season>
				<year>2021</year>
			</pub-date>
			<issue>37</issue>
			<fpage>37</fpage>
			<lpage>62</lpage>
			<history>
				<date date-type="received">
					<day>08</day>
					<month>02</month>
					<year>2021</year>
				</date>
				<date date-type="accepted">
					<day>10</day>
					<month>05</month>
					<year>2021</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="es">
					<license-p>Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons</license-p>
				</license>
			</permissions>
			<abstract>
				<title>Resumen</title>
				<p>La evaluación en educación contiene una gran variedad de dimensiones que afectan a dicho fenómeno y debe responder a las siguientes preguntas: quién, qué, cuándo, cómo y por qué evaluar. Dentro del marco legal, en la actualidad la evaluación debe ser integradora y formativa para llevar a los alumnos la oportunidad de alcanzar los objetivos a través de diversos instrumentos de evaluación. Así, se ha realizado un estudio dirigido a 107 profesores de la Región de Murcia -de las etapas de ESO y Bachillerato- especializados en diferentes ámbitos, mediante una encuesta para conocer sus percepciones sobre la evaluación en cuanto a la práctica docente y el proceso de enseñanza-aprendizaje. Los resultados obtenidos en esta investigación muestran que, en general, los profesores consideran más adecuados los objetivos de sus asignaturas que las competencias. Además, las profesoras y los profesores más jóvenes utilizan con mayor frecuencia las TIC a la hora de evaluar a sus alumnos. En cuanto a la etapa, los profesores de Bachillerato dan un mayor peso a los conocimientos teóricos que los de la ESO, mientras que estos últimos tienden a utilizar con más frecuencia herramientas como las grabaciones de vídeo para evaluar a sus alumnos. Este estudio también muestra que los exámenes son más importantes para los tutores que para el resto de profesores. En conclusión, este estudio demuestra que las estrategias y técnicas que aplican los profesores a la hora de evaluar dependen de su sexo, edad, puesto de trabajo, situación laboral y etapa.</p>
			</abstract>
			<trans-abstract xml:lang="en">
				<title>Summary</title>
				<p>Assessment in education contains a great variety of dimensions that affect such phenomenon and must respond to the following questions: who, what, when, how and why to assess. Within the Spanish legal framework, currently assessment must be integrative and formative to bring the students the opportunity to achieve the objectives through diverse assessment instruments. Thus, a study addressed to 107 teachers of the Region of Murcia in secondary education -in the stages of ESO and Bachillerato- who are specialised in different fields has been carried out by means of a survey to know their perceptions about assessment as regards the teaching practice and the teaching-learning process. The results obtained in this research show that, in general, teachers consider the objectives of their subjects more suitable than the competencies. Besides, female teachers and younger teachers use ICT more frequently when assessing their students. Regarding the stage, Bachillerato teachers give a higher weight to theoretical knowledge than ESO teachers, while the last ones tend to use tools such as video recordings to assess their students more frequently. This study also shows that exams are more important for tutors than for the rest of teachers. To conclude, this study demonstrates that the strategies and techniques applied by teachers when assessing depend on their sex, age, job position, employment situation and stage.</p>
			</trans-abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>evaluación</kwd>
				<kwd>profesorado</kwd>
				<kwd>educación secundaria</kwd>
				<kwd>estrategias de enseñanza</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title>Keywords:</title>
				<kwd>assessment</kwd>
				<kwd>teachers</kwd>
				<kwd>secondary education</kwd>
				<kwd>teaching strategies</kwd>
			</kwd-group>
			<counts>
				<fig-count count="0"/>
				<table-count count="10"/>
				<equation-count count="0"/>
				<ref-count count="19"/>
				<page-count count="26"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>Introducción</title>
			<p>
				<xref ref-type="bibr" rid="B2">Álvarez (2007</xref>) establece que la manera en que evaluamos dependederá de lo que para nosotros significa conocimiento. El autor insiste en considerar a la evaluación y al conocimiento como dos elementos que siempre tienen que trabajar juntos. Por el contrario, separar al conocimiento de este proceso transformaría a la evaluación en una simple herramienta cuya función sería util promover pero sin mayor utilidad en términos de adquisición de la competencia profesional y personal. <xref ref-type="bibr" rid="B9">García (2010</xref>) expone que un modelo no es mejor que otro; todo depende de los objetivos propuestos por el evaluador, el profesor o el investigador.</p>
			<p>Con respecto de la evaluación sumativa y formativa, <xref ref-type="bibr" rid="B19">Pérez y Carretero (2009</xref>) demostraron que hay muchísimos profesores que consideran que el conocimiento teórico es la parte más importante de sus materias y, por ello, es a lo que prestan mayor atención cuando evalúan. Otro elemento que está estrechamente relacionado con la evaluación sumativa es el examen tradicional; de acuerdo con <xref ref-type="bibr" rid="B15">Monteagudo (2014</xref>), la mayoría de ls profesores de secundaria tienden a evaluar solo a través de evaluaciones y asignaciones tradicionales; Filstread (1995), no obstante, explica la tendencia de señalar la insatisfacción causada por la evaluación cuantitativa.</p>
			<p>
				<xref ref-type="bibr" rid="B18">Pérez (1999</xref>) destaca que la evaluación cualitativa puede ayudarnos a comprender los procesos reales de enseñanza-aprendizaje mediante la búsqueda de un método de aprendizaje significativo. <xref ref-type="bibr" rid="B10">Goncalves (2014</xref>) muestra que el 88% de los docentes que participaron en su investigación afirman que los métodos de evaluación han cambiado debido a la incorporación de nuevos instrumentos como las TIC, proyectos, presentaciones orales y tareas prácticas que contribuyen a fomentar el pensamiento crítico. Además, <xref ref-type="bibr" rid="B10">Goncalves (2014</xref>) explica que la introducción de instrumentos innovadores para evaluar brinda a los estudiantes diversas oportunidades para lograr los objetivos de aprendizaje. Por medio de una evaluación alternativa que incluye la evaluación del desempeño (portafolios, diarios, cuestionarios, proyectos de trabajo), la autoevaluación, la evaluación por pares y la observación del maestro, se les pide a los estudiantes que resuelvan problemas realistas y utilicen un pensamiento de alto nivel mientras fomentan las competencias esenciales según cada tarea. En relación con esta idea, <xref ref-type="bibr" rid="B7">Eggers (2016</xref>) señala que, si el proceso de evaluación comprende tareas o actividades calificadas distribuidas a lo largo del curso, tales como trabajos escritos, pruebas, presentaciones orales cortas o similares, esta entonces abre el espacio para la retroalimentación.</p>
			<p>
				<xref ref-type="bibr" rid="B16">Morales (2001</xref>) agrega que se debe realizar una evaluación inicial para que los docentes comprendan mejor la situación general de los estudiantes; esto afectará los objetivos y la medida en que deban cumplirse. <xref ref-type="bibr" rid="B16">Morales (2001</xref>) defiende que aunque comúnmente se asocia con</p>
			<p>evaluación sumativa, la evaluación final también puede ser útil para considerar en qué medida se han logrado los objetivos en un momento dado y para mejorar cualquier elemento que pueda dificultar el proceso de enseñanza-aprendizaje, siempre y cuando se entienda como parte de un proceso que esté conectado con la evaluación formativa continua. En relación con la evaluación formativa, hay que mencionar que la autoevaluación es un proceso de evaluación formativa durante el cual los estudiantes reflexionan y evalúan la calidad de su trabajo y de su aprendizaje; también juzgan el grado en que se reflejan en los objetivos o criterios explícitamente establecidos e identifican las fortalezas y debilidades en su trabajo y las revisan como corresponde (<xref ref-type="bibr" rid="B1">Andrade &amp; Du, 2017</xref>, p.160).</p>
			<p>Aunque la evaluación en España -según las leyes educativas españolas- debe ser integradora y formativa, algunos docentes separan esta parte esencial del proceso de enseñanza-aprendizaje y no la utilizan como una herramienta que les haga reflexionar sobre sus prácticas y el progreso de sus alumnos. A pesar de eso, también hay muchos de ellos que hacen todo lo posible para desarrollar una evaluación lo más justa posible, integrando nuevos métodos e intentando brindar a sus alumnos la oportunidad de salir bien. Por ello, conocer y tener en cuenta la opinión del profesorado sobre la evaluación puede ser una excelente manera de identificar tanto las posibles debilidades como las fortalezas del enfoque educativo, lo que podría ayudar a potenciar su aplicación en institutos españoles. A continuación, pretendemos dar respuesta a la siguiente pregunta: ¿Cómo valoran realmente los profesores el aprendizaje de sus alumnos en la Región de Murcia?</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Marco Empírico. Objetivo</title>
			<p>Este estudio pretende conocer la visión del profesorado de secundaria de la Región de Murcia sobre la evaluación tanto de su práctica docente como del proceso de aprendizaje, o mejor dicho; nuestro objetivo principal es conocer cómo los profesores en la Región de Murcia, pertenecientes a diferentes campos evalúan a sus alumnos en la educación secundaria (etapas de ESO y Bachillerato).</p>
			<p>Entre los objetivos específicos debemos resaltar:</p>
			<p>
				<list list-type="bullet">
					<list-item>
						<p>El análisis de las estrategias y las técnicas que el profesorado implementa, así como también las que más utilizan durante los procesos de enseñanza y aprendizaje.</p>
					</list-item>
					<list-item>
						<p>Realizar una comparativa basada en género con el fin de observar diferencias significativas según las variables sociodemográficas incluidas en nuestro estudio como el sexo, la edad, experiencia, titulación, situación laboral, institución, etapa, puesto de trabajo, la asignatura y el cargo.</p>
					</list-item>
				</list>
			</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Método</title>
			<p>Hemos realizado un estudio de tipo descriptivo cuyo objetivo es obtener información sobre partes concretas del fenómeno de la evaluación en Educación Secundaria. Para realizar este estudio, se ha procedido siguiendo los pasos que presenta un método descriptivo según <xref ref-type="bibr" rid="B3">Bisquerra (2004</xref>); a saber: identificar un problema, establecer objetivos, seleccionar una muestra, diseñar el instrumento de investigación para recolectar datos, analizar los datos y finalmente sacar conclusiones.</p>
			<p>Además, se ha hecho a través del método ex post facto, el cual pertenece a los métodos destinados a extraer conclusiones generales o descubrir nuevas teorías a partir de observaciones sistemáticas de la realidad (<xref ref-type="bibr" rid="B3">Bisquerra, 2004</xref>). El uso de este método significa que los investigadores iniciaron la investigación después de ocurrido el hecho. En este caso, la evaluación es un fenómeno continuo que ha sido estudiado después de que el profesorado haya experimentado la evaluación en Educación Secundaria.</p>
			<p>Entre los métodos descriptivos hemos seleccionado la encuesta. Esta consiste en realizar y seleccionar determinadas preguntas sobre un problema para que sean respondidas por un grupo determinado (la muestra del estudio). La respuesta de este grupo será la clave para dar respuesta y encontrar posibles soluciones al problema.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Participantes</title>
			<p>Los participantes en este estudio son 107 profesores de secundaria que imparten clases en las etapas de ESO y Bachillerato; todos ellos trabajan en centros de educación secundaria pública de la Región de Murcia. Con el fin de solicitar la participación del profesorado y conseguir el mayor número posible de participantes, se redactó y envió un correo electrónico a 64 institutos de secundaria ubicados en diferentes zonas de la Región de Murcia: Cieza, Abarán, Archena, Ceutí, Lorca, Jumilla, Murcia I, Murcia II, Cartagena, entre otros. El contenido del correo electrónico incluía el nombre de los investigadores en este estudio, la institución, el objetivo de la investigación y el grupo objetivo.</p>
			<p>Además, mencionamos que mantendríamos la confidencialidad de los datos, garantizando su anonimato. Asimismo, les ofrecimos los resultados de dicho estudio en caso de que estuviesen interesados. Finalmente, se adjuntó al correo electrónico el enlace para acceder a la encuesta en línea a través de Google Forms. El correo electrónico enviado a los diferentes colegios se incluye en el anexo 2. Con el fin de salvaguardar la ética de esta investigación, el correo electrónico fue enviado a la dirección de los colegios para esta lo reenviara a los docentes pertenecientes a las instituciones. Algunas de las características sociodemográficas se incluyen en la <xref ref-type="table" rid="t1">Tabla 1</xref> a continuación.</p>
			<p>
				<table-wrap id="t1">
					<label>Tabla 1</label>
					<caption>
						<title>Resumen de frecuencias y porcentajes de las características de los docentes participantes</title>
					</caption>
					<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/303"/>
				</table-wrap>
			</p>
			<p>Entre los datos más relevantes de esta tabla, encontramos que la mayoría de docentes son mujeres de entre 46 y 55 años, cuya experiencia laboral es de entre 10 y 19 años y que imparten principalmente idiomas (inglés y francés), matemáticas e historia. Tienen un título y trabajan como funcionarios públicos. Además, todos los participantes pertenecen a colegios públicos y más de la mitad de los participantes imparten docencia en la etapa de ESO.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Variables</title>
			<p>Con el fin de establecer relaciones y tratar de dar respuesta al problema, es fundamental determinar las variables que intervienen en el estudio. Como sabemos, una variable es la manifestación externa de un constructo o concepto, o mejor dicho, una característica o propiedad que adopta diferentes valores y puede ser medida (<xref ref-type="bibr" rid="B11">Hernández &amp; Maquilón, 2010</xref>). Por tanto, gracias a las variables podemos asignar un valor a un concepto o imagen para medirlo en relación con otros conceptos.</p>
			<p>En cuanto a las variables que contiene esta investigación, encontramos, por un lado, las variables independientes que corresponden a la información sociodemográfica de los participantes en la encuesta; tales como la edad, el sexo, la experiencia laboral, el tipo de institución y su título. Toda esta información está incluida en el apartado de participantes. Por otro lado, encontramos las variables dependientes que corresponden al grado de acuerdo con los ítems de la encuesta que versan sobre los diferentes aspectos de la evaluación.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Instrumento de recolección de datos</title>
			<p>Decidimos llevar a cabo esta investigación utilizando un instrumento de investigación de tipo encuesta diseñado específicamente para este estudio. Como afirma <xref ref-type="bibr" rid="B5">Buendía (1998</xref>), la encuesta es una de las técnicas más utilizadas en la investigación por encuestas ya que permite conocer lo que piensan y hacen los participantes y se puede realizar de forma presencial, telefónica o en línea; todas estas características nos hicieron seleccionar este tipo de instrumento. Es fundamental igualmente destacar que no hemos encontrado ninguna encuesta diseñada y validada sobre evaluación en Educación Secundaria que profundice especialmente en la evaluación de la práctica docente y en la evaluación del proceso de aprendizaje. Por ello, necesitábamos diseñar un instrumento que diera respuesta a este fenómeno en concreto. Para diseñar este instrumento de investigación con el fin de recopilar los datos que necesitábamos, se procedió de la siguiente manera: En primer lugar, se establecieron los objetivos principales y los objetivos específicos. Luego, se inició el proceso de revisión de la literatura sobre el tema. Teniendo en cuenta las fuentes y la información, desarrollamos los ítems de nuestra encuesta sobre la evaluación. Dado que nuestro objetivo principal era conocer qué pensaban los participantes sobre la evaluación tanto en el proceso de enseñanza como en el de aprendizaje y, por tanto, conocer sus estrategias y técnicas, incluimos una escala de Likert para que respondieran los diferentes ítems con cuatro grados: 1 muy de acuerdo, 2 en desacuerdo, 3 de acuerdo y 4 muy de acuerdo.</p>
			<p>En cuanto al primer borrador del instrumento, se agregaron algunos ítems sociodemográficos y algunas preguntas de evaluación. Así, después de algunas modificaciones, esas preguntas e ítems fueron evolucionando desde el primer borrador hasta el tercer y último borrador que constaba de dos partes principales que contenían 10 ítems para la parte sociodemográfica y 38 ítems relacionados con la evaluación. Estos 38 ítems se dividieron, a su vez, en dos subsecciones: El proceso de enseñanza y el proceso de aprendizaje, con 14 y 24 ítems respectivamente.</p>
			<p>Una vez que tuvimos la versión final del borrador, necesitábamos examinar nuestra encuesta en términos de validez para así implementarla en esta investigación. Para ello, contamos con la colaboración de seis expertos. Todos ellos son profesionales en el campo de la educación y algunos de ellos tienen experiencia en investigación educativa. Por un lado, los expertos de la Universidad de Murcia son tres profesores; dos de ellos pertenecen al Departamento de Didáctica de la Lengua y la Literatura (inglés, español y francés) y el otro trabaja en el Departamento de Inglés. Por otro lado, también contamos con tres profesores experimentados del Departamento de Inglés del IES Dr. Pedro Guillén, en Archena, Murcia.</p>
			<p>Gracias a la colaboración de los expertos, se eliminaron o reformularon algunos ítems para garantizar que el instrumento fuera capaz de medir lo que pretendía medir. Como resultado, la versión final del instrumento consta de una primera parte que incluye 10 preguntas sociodemográficas y una segunda parte que se divide en dos dimensiones: evaluación en el proceso de enseñanza y evaluación en el proceso de aprendizaje; estas secciones contienen 14 y 38 ítems respectivamente, dando un total de 52 ítems. Para responder a estos ítems se debió tener en cuenta la escala Likert con cuatro grados de acuerdo propuestos, siendo 1 muy de acuerdo, 2 en desacuerdo, 3 de acuerdo y 4 muy de acuerdo; tal como se puede ver en la <xref ref-type="table" rid="t2">Tabla 2</xref>.</p>
			<p>
				<table-wrap id="t2">
					<label>Tabla 2</label>
					<caption>
						<title>Dimensiones de la encuesta</title>
					</caption>
					<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/304"/>
				</table-wrap>
			</p>
			<p>Finalmente, siguiendo las ideas <xref ref-type="bibr" rid="B6">DeVellis (2016</xref>), se aplicó la técnica Alfa de Cronbach para determinar la consistencia interna del cuestionario con base en el promedio de las correlaciones entre los ítems. Se obtuvo el valor de .804, lo que indica una alta consistencia interna de el instrumento.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>El Proceso de investigación</title>
			<p>En este proceso de investigación podemos distinguir algunas fases particulares que presenta <xref ref-type="bibr" rid="B3">Bisquerra (2004</xref>) al referirse a la realización de un estudio tipo encuesta; a saber: Establecer los objetivos de la encuesta, planificar sus diferentes apartados, diseñar y seleccionar las preguntas, analizar la calidad de las preguntas en términos de su validez y redacción de la versión final de la encuesta. Este proceso de investigación consta de las fases descritas en la siguiente <xref ref-type="table" rid="t3">Tabla 3</xref>.</p>
			<p>
				<table-wrap id="t3">
					<label>Tabla 3</label>
					<caption>
						<title>Resumen del proceso de investigación</title>
					</caption>
					<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/305"/>
					<table-wrap-foot>
						<fn id="TFN4">
							<p>Fuente: Elaboración propia</p>
						</fn>
					</table-wrap-foot>
				</table-wrap>
			</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Análisis de los datos</title>
			<p>El análisis cuantitativo de los datos recopilados se realizó con el paquete de software de estadísticas IMB SPSS, versión 24. Luego de cerrar el cuestionario en Google Forms, se decidió descargar los datos de las respuestas a través de una plantilla de Excel e importar esos datos al paquete de software de estadísticas.</p>
			<p>Una vez que teníamos los datos, se revisó y nombró cada variable, así como sus correspondientes etiquetas. Asimismo, se configuraron los valores faltantes. La naturaleza de las variables y los objetivos que se establecieron al inicio de la investigación dieron como resultado la aplicación de diferentes técnicas descriptivas. Por un lado, teníamos que calcular las estadísticas descriptivas (frecuencias, porcentajes, medias y desviación estándar). Por otro lado, también se utilizó estadística inferencial, aplicando en este caso técnicas de contraste no paramétricas ya que al aplicar la prueba de homocedasticidad de Levene y la prueba de normalidad de Kolmogorov-Smirnov, sus valores nos llevaron a tal necesidad. Así, las pruebas que hemos utilizado para este fin han sido la prueba de Kruskal-Wallis y la prueba de la U de Mann-Whitney.</p>
			<p>De igual forma, para verificar la confiabilidad del instrumento de recolección de datos diseñado para esta investigación, se calculó el coeficiente alfa de Cronbach para determinar su fiabilidad, tal como se refleja en el apartado referente al instrumento.</p>
		</sec>
		<sec sec-type="results">
			<title>Resultados</title>
			<p>A continuación, teniendo en cuenta estos objetivos de investigación, se presentan los resultados obtenidos.</p>
			<sec>
				<title>Objecto 4.1. Análisis de las estrategias y técnicas utilizadas por los docentes y las más utilizadas</title>
				<p>En la <xref ref-type="table" rid="t4">Tabla 4</xref> se muestran los resultados del análisis descriptivo, donde podemos observar que los docentes participantes en esta investigación consideran que los objetivos planteados para su asignatura son adecuados (X = 4.78), aunque en cuanto a las competencias a desarrollar el promedio es considerablemente menor (X = 3,79).</p>
				<p>
					<table-wrap id="t4">
						<label>Tabla 4</label>
						<caption>
							<title>Estadísticos descriptivos de las respuestas de los docentes a la dimensión 1: LA PRÁCTICA DOCENTE</title>
						</caption>
						<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/306"/>
						<table-wrap-foot>
							<fn id="TFN5">
								<p>Fuente: Elaboración propia</p>
							</fn>
						</table-wrap-foot>
					</table-wrap>
				</p>
				<p>
					<table-wrap id="t5">
						<label>Tabla 5</label>
						<caption>
							<title>Estadísticos descriptivos de las respuestas de los docentes a la dimensión 1: EL PROCESO DE APRENDIZAJE</title>
						</caption>
						<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/307"/>
						<table-wrap-foot>
							<fn id="TFN6">
								<p>Fuente: Elaboración propia</p>
							</fn>
						</table-wrap-foot>
					</table-wrap>
				</p>
				<p>En la <xref ref-type="table" rid="t5">Tabla 5</xref> tenemos los resultados obtenidos de las estadísticas descriptivas de las respuestas de los docentes a la dimensión 2: Proceso de aprendizaje. Por un lado, los resultados muestran que los ítems con mayor mediana son los números 38, 36 y 37 respectivamente. Por otro lado, los ítems con menor mediana son el 16, el 20 y el 23. Además, el ítem número 38 es el que presenta mayor porcentaje. En este caso, el 62,6 % del profesorado está muy de acuerdo con la afirmación de tener en cuenta la diversidad y personalidad de sus alumnos a la hora de informarles sobre sus notas. Luego, tenemos un 57,9 % de docentes en el ítem 23 que no utilizan grabaciones para evaluar a sus alumnos y un 54,2 % de ellos en el ítem 37 que están muy de acuerdo en que los exámenes en línea dan la oportunidad a los alumnos de hacer trampa. Finalmente, en el ítem número 28 encontramos que el 53,3 % de los docentes está de acuerdo en evaluar a sus alumnos a través de tareas grupales como proyectos y presentaciones orales.</p>
			</sec>
			<sec>
				<title>Objetivo 4.2. Realizar una comparativa basada en género </title>
				<p>Con el fin de observar diferencias significativas según las variables sociodemográficas incluidas en nuestro estudio como el sexo, la edad, experiencia, titulación, situación laboral, institución, etapa, puesto de trabajo, la asignatura y el cargo</p>
				<p>En este segundo objetivo, nos propusimos analizar si existen diferencias en las respuestas a los ítems en función de las variables sociodemográficas que componen la encuesta: Sexo, edad, experiencia, calificación, situación laboral, institución, etapa, puesto de trabajo, asignatura y cargo.</p>
				<sec>
					<title>Sexo</title>
					<p>En primer lugar, la <xref ref-type="table" rid="t6">Tabla 6</xref> muestra los resultados obtenidos tras calcular la prueba U de Mann Whitney en relación con las respuestas a los ítems de la encuesta en función del sexo. En este caso podemos comprobar como el valor de la significancia asintótica es inferior a .05 (p &lt;.05), por lo que podemos afirmar que en los ítems 3, 4, 15, 23 y 31 existen diferencias estadísticamente significativas en las respuestas en función del sexo y, en concreto, a favor de las profesoras, tal y como se establece en el rango medio. Como podemos ver, el rango medio de profesoras que consideran adecuados los contenidos y competencias de sus asignaturas es superior al de los profesores. Además, más docentes mujeres prefieren evaluar a sus alumnos mediante el uso de grabaciones que los alumnos tienen que producir y que las docentes utilizan para integrar las TIC cuando evalúan. Todo esto con más frecuencia que los docentes hombres.</p>
					<p>
						<table-wrap id="t6">
							<label>Tabla 6</label>
							<caption>
								<title>Prueba de la U de Mann-Whitney basada en el sexo</title>
							</caption>
							<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/308"/>
						</table-wrap>
					</p>
				</sec>
				<sec>
					<title>Edad</title>
					<p>Se realizó la prueba de Kruskal-Wallis con el fin de determinar la existencia de diferencias estadísticamente significativas en algunos de los ítems de la encuesta en función de la edad de los docentes participantes. Tras realizar esta prueba, encontramos diferencias estadísticamente significativas en el ítem número 31. Así, se ha realizado la prueba U de Mann-Whitney para saber qué pares concretos contienen diferencias significativas.</p>
					<p>Los datos obtenidos de la Prueba U de Mann Whitney en cuanto a la edad se incluyen en la <xref ref-type="table" rid="t7">Tabla 7</xref>. Como podemos ver, solamente hay diferencias significativas en el ítem 31. Esta diferencia muestra que el rango promedio de los docentes de 25 años o menos que tienden a utilizar las TIC a la hora de evaluar a sus alumnos es superior a los profesores de entre 36 y 45 años.</p>
					<p>
						<table-wrap id="t7">
							<label>Tabla 7</label>
							<caption>
								<title>Prueba de la U de Mann-Whitney basada en la edad</title>
							</caption>
							<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/310"/>
						</table-wrap>
					</p>
				</sec>
				<sec>
					<title>Titulación</title>
					<p>La prueba de Kruskal-Wallis muestra una diferencia en el ítem 23. Esta diferencia muestra que hay una mayor cantidad de docentes con grado que tienden a implementar la estrategia de solicitar a sus alumnos que produzcan grabaciones para evaluarlas en comparación con aquellos que tienen otro tipo de titulación (licenciatura).</p>
					<p>
						<table-wrap id="t8">
							<label>Tabla 8</label>
							<caption>
								<title>Prueba de la U de Mann-Whitney basada en la titulación</title>
							</caption>
							<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/311"/>
						</table-wrap>
					</p>
				</sec>
				<sec>
					<title>Situación laboral</title>
					<p>Luego de realizar la prueba de Kruskal-Wallis para determinar la existencia de diferencias estadísticamente significativas, los resultados indican que no existen diferencias significativas para ninguno de los casos.</p>
				</sec>
				<sec>
					<title>Etapa</title>
					<p>En este caso, la prueba de Kruskal-Wallis muestra diferencias significativas en los ítems 16, 24, y 31. Como se puede observar en la <xref ref-type="table" rid="t9">Tabla 9</xref>, el peso que dan a los conocimientos teóricos los profesores tanto de ESO como de Bachillerato es superior al de los profesores que solamente imparten clases en ESO. Sin embargo, quienes solo imparten clases en ESO utilizan la estrategia de solicitar a sus alumnos la realización de videos para evaluarlos con mayor frecuencia que quienes imparten docencia en ambas etapas. Además, quienes solo imparten docencia en ESO tienden a integrar más las TIC en su metodología de evaluación que los docentes de ambas etapas.</p>
					<p>
						<table-wrap id="t9">
							<label>Tabla 9</label>
							<caption>
								<title>Prueba de la U de Mann-Whitney basada en la etapa</title>
							</caption>
							<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/312"/>
						</table-wrap>
					</p>
				</sec>
				<sec>
					<title>Puesto de trabajo</title>
					<p>Luego de realizar la prueba de Kruskal-Wallis, hemos encontrado diferencias significativas en el ítem 17. Como podemos ver en la <xref ref-type="table" rid="t10">Tabla 10</xref>, los tutores tienden a atribuir a los exámenes el 60 % o incluso más peso de la nota final que el resto de los profesores.</p>
					<p>
						<table-wrap id="t10">
							<label>Table 10</label>
							<caption>
								<title>Prueba de la U de Mann-Whitney basada en el puesto de trabajo</title>
							</caption>
							<graphic xlink:href="https://revistas.unimet.edu.ve/index.php/Almanaque/article/download/27/99/313"/>
						</table-wrap>
					</p>
				</sec>
				<sec>
					<title>Materia</title>
					<p>Tras realizar la prueba de Kruskal-Wallis para determinar la existencia de diferencias estadísticamente significativas, los resultados indican que no existen diferencias significativas para ninguno de los casos.</p>
				</sec>
				<sec>
					<title>Posición</title>
					<p>Tras realizar la prueba de Kruskal-Wallis para determinar la existencia de diferencias estadísticamente significativas, los resultados indican que no existen diferencias significativas para ninguno de los casos.</p>
				</sec>
			</sec>
		</sec>
		<sec sec-type="conclusions|discussion">
			<title>Discusión y Conclusiones</title>
			<p>En cuanto a las diferentes técnicas utilizadas por los docentes, hemos encontrado en la investigación realizada por <xref ref-type="bibr" rid="B10">Goncalves (2014</xref>) que el 88% de los docentes participantes afirman que los métodos de evaluación han cambiado debido a la integración de nuevos y diversos instrumentos como las TIC, proyectos, las presentaciones orales y trabajos prácticos que contribuyan a fomentar el pensamiento crítico. Esta afirmación coincide con nuestros resultados ya que el 53,3 % de los docentes evalúa a sus alumnos a través de tareas grupales como proyectos y presentaciones orales. Por lo tanto, podemos constatar una evolución y mejora considerablemente positiva de los métodos e instrumentos de evaluación en comparación con los de las últimas décadas. A su vez, también coincidimos con la investigación realizada por <xref ref-type="bibr" rid="B7">Eggers (2016</xref>), quien estudia la evaluación formativa y los tipos de tareas y actividades que benefician el proceso de aprendizaje de los estudiantes. Este autor afirma que todas las actividades ya mencionadas invitan a reflexionar sobre el progreso de los estudiantes y la eficacia de los métodos y prácticas de enseñanza.</p>
			<p>Por un lado, la investigación de Goncalves y Eggers difiere de la de <xref ref-type="bibr" rid="B1">Andrade &amp; Du (2017</xref>) quienes no se ocupan de los instrumentos de evaluación sino de los tipos de evaluación y explican cómo la autoevaluación, por ejemplo, resulta ser un gran recurso que debe utilizarse para complementar los instrumentos innovadores, todo esto con el fin de concienciar a los alumnos sobre su proceso de aprendizaje y aumentar su motivación al observar su propio progreso. Por otro lado, tanto <xref ref-type="bibr" rid="B8">Filstread (1986</xref>) como <xref ref-type="bibr" rid="B18">Pérez (1999</xref>) coinciden en que la evaluación cualitativa nos ayuda a abordar la educación desde una perspectiva más real y rechazar los métodos cuantitativos.</p>
			<p>Además, coincidimos en la propuesta de <xref ref-type="bibr" rid="B10">Goncalves (2014</xref>), quien propone tener más en cuenta elementos tales como encontrar la manera de evaluar la capacidad de resolución de problemas y la implementación de tareas realistas que sean útiles para la vida diaria de los estudiantes, así como la integración de las TIC a la hora de evaluar. En este caso, aunque la investigación de Goncalves concluye que los métodos y el instrumento han cambiado, en cuanto a la integración de las TIC para evaluar, encontramos que aquellos profesores cuya edad ronda los 25 años y que solo imparten clases en ESO, son los que más utilizan este recurso. Como muestra de ello, los resultados de nuestra investigación muestran que aquellos profesores que solo imparten clases en ESO utilizan la estrategia de solicitar a sus alumnos la producción de videos para evaluarlos con más frecuencia que aquellos que imparten clases tanto en ESO como en Bachillerato.</p>
			<p>En cuanto al profesorado de Bachillerato, los resultados obtenidos se corresponden con las conclusiones expuestas por <xref ref-type="bibr" rid="B19">Pérez y Carretero (2009</xref>), con lo cual podemos afirmar que los profesores de Bachillerato tienden a atribuir un mayor peso a los conocimientos teóricos que los profesores de ESO, siendo estos últimos más innovadores y prácticos. Según el autor, la razón, radica en la gran cantidad de condicionamientos y limitaciones que genera la necesidad de preparar a los estudiantes para los exámenes de ingreso a la universidad. Por tanto, la evaluación está condicionada por lo que se enseña, lo que se aprende y también por el tipo de pruebas que se van a realizar. Además, esta afirmación coincide con <xref ref-type="bibr" rid="B9">García (2010</xref>), ya que la evaluación también está condicionada por los objetivos y por los contenidos que establece quien evalúa. Otro autor que defiende la pertinencia de plantear los objetivos de aprendizaje desde el inicio es <xref ref-type="bibr" rid="B16">Morales (2001</xref>); en este caso, su investigación difiere de la nuestra ya que trata sobre la importancia de la evaluación inicial para saber qué enseñar, cómo enseñar y para determinar quién necesita más atención. Obviamente la evaluación también se ve afectada por estos factores.</p>
			<p>Otra contribución relevante es la de contrastar el uso de exámenes con el uso de proyectos y otras tareas. En el trabajo de <xref ref-type="bibr" rid="B15">Monteagudo (2014</xref>) se destaca el hecho de que los instrumentos más utilizados para evaluar el aprendizaje de los estudiantes son los trabajos y exámenes, pero no se implementan proyectos, portafolios o presentaciones orales. En el caso de nuestra investigación, también se evidencia contraste con la de Monteagudo debido a que hemos demostrado que el 53,3% de los docentes que participaron en el estudio suele solicitar a sus alumnos la creación de proyectos, el trabajo en tareas grupales y la realización de presentaciones orales. No obstante, en esta investigación, el 32,7% de los docentes está muy de acuerdo con dar a los exámenes un peso del 60% o más respecto de la calificación final. Así, en cuanto a la importancia de los exámenes, nuestro estudio coincide con el de Monteagudo ya que los resultados obtenidos muestran que los exámenes son el instrumento más importante a la hora de evaluar los conocimientos de los alumnos ya que representan entre el 60% y el 50% de la nota final.</p>
			<p>Como resultado del estudio realizado, se han logrado extraer algunas conclusiones. Así, consideramos que pueden servir para ampliar nuestro conocimiento sobre la evaluación real en la práctica docente, así como en el proceso de aprendizaje que llevan a cabo los docentes de Educación Secundaria de la Región de Murcia y así, poder potenciar las posibles debilidades que este fenómeno puede presentar en la actualidad.</p>
			<p>En primer lugar, en cuanto al proceso de aprendizaje, nuestra conclusión es que el profesorado de la Región de Murcia considera que los objetivos marcados para sus asignaturas son más adecuados que las competencias que deben desarrollar. Si bien tanto los objetivos como las competencias de la Educación Secundaria están bastante relacionados, este resultado puede deberse a que mientras los objetivos de la Educación Secundaria apuntan a formar a los estudiantes como personas íntegras, tolerantes y respetuosas, capaces de desarrollar diferentes habilidades para sus vidas y es algo que se puede lograr en algunos casos o no, las competencias implican una combinación de habilidades prácticas, conocimientos, ética, actitud y muchos componentes sociales. Así, estos resultados pueden significar que necesitamos fomentar aún más el desarrollo de las competencias y debería hacerse desde una perspectiva que sea más transversal.</p>
			<p>En segundo lugar, en cuanto al objetivo sobre las estrategias y técnicas utilizadas, el ítem con mayor porcentaje (62,6%) muestra que una gran parte de los docentes tiene en cuenta la diversidad y la personalidad de sus alumnos a la hora de informarles sobre sus notas, lo que significa que los profesores realmente prestan atención a sus alumnos y a cómo podrían reaccionar ante una nota negativa. Esto supone un cambio realmente positivo que puede haber sido provocado por el auge de investigaciones relacionadas con la importancia de la inteligencia intrapersonal en el aula y cómo el afecto es un arma poderosa para aumentar la motivación y mejorar el rendimiento de nuestros alumnos.</p>
			<p>Además, un 54,2 % de los docentes está muy de acuerdo en que los exámenes en línea brindan a los estudiantes la oportunidad de hacer trampa. Esta afirmación ha sido ampliamente repetida por muchos docentes durante este año atípico en el que los alumnos han tenido que asistir a clases en línea y realizar exámenes en línea. De hecho, los profesores pueden tener razón si asumimos que los exámenes en línea son exactamente iguales a los presenciales; es decir, contienen la misma estructura, el mismo tipo de ejercicios, el mismo tiempo de realización, etc. En este caso, los exámenes en línea pueden representar una gran oportunidad para que los alumnos hagan trampa ya que no se han adaptado adecuadamente a esta situación específica. No obstante, podría ser interesante observar qué porcentaje de profesores han sido capaces de adaptar sus exámenes para cumplir con los requisitos de validez, fiabilidad y practicidad a la hora de diseñar exámenes online.</p>
			<p>En cuanto al objetivo de la comparación sociodemográfica, encontramos que el rango promedio de las docentes que consideran adecuados los contenidos y competencias de sus asignaturas es superior al de los docentes hombres. Además, las docentes integran las TIC a la hora de evaluar con más frecuencia que los docentes hombres. Otro factor razonable obtenido es que los profesores de 25 años tienden a utilizar las TIC a la hora de evaluar el aprendizaje de sus alumnos en mayor medida que los de mayor edad. Si bien en la actualidad la gran mayoría de los docentes posee habilidades digitales, esta afirmación está directamente relacionada con la formación académica y personal de los docentes ya que los más jóvenes suelen estar siempre al tanto de las últimas actualizaciones TIC para implementarlas en sus aulas. Esto no quiere decir que los profesores de mayor edad no evalúen a sus alumnos a través de instrumentos o aplicaciones TIC, mas puede ser beneficioso desarrollar una formación específica y continua para que aprovechen todos los instrumentos y estrategias. Así, podría facilitarse mucho más su práctica docente y desarrollar un proceso de aprendizaje más ameno y atractivo.</p>
			<p>En general, consideramos que los objetivos de esta investigación se han cumplido adecuadamente. En cuanto al objetivo principal y el objetivo específico número uno que están íntimamente relacionados, hemos demostrado que los docentes de la Región de Murcia son profesores que se preocupan por sus alumnos cuando tienen que informarles sobre los resultados de un examen; son docentes que consideran que los exámenes en línea no son el instrumento más adecuado para evaluar ya que pueden no contener validez y fiabilidad y que la mitad evalúa a sus alumnos ofreciéndoles una gran variedad de tareas como proyectos, trabajos en grupo y presentaciones orales. En cuanto a los objetivos específicos, como hemos dicho, hemos obtenido una visión general de cómo evalúa el profesorado en la Región de Murcia. Si bien este primer objetivo específico se cumple, habría que tener en cuenta más factores para ampliar esta investigación en el futuro si pretendemos seguir profundizando en este fenómeno. Finalmente, el segundo objetivo específico se ha cumplido en gran medida. Hemos obtenido información relevante sobre los docentes en función de su edad, sexo, puesto de trabajo y etapa en la que ejercen la actividad docente. Así, podríamos concluir que las profesoras más jóvenes de ESO son más innovadoras que sus compañeros varones. También podemos observar la tendencia de innovación entre los docentes más jóvenes en comparación con los mayores. Además, es interesante también como los tutores son los que más se preocupan por los exámenes ya que su responsabilidad e implicación es claramente mayor.</p>
		</sec>
	</body>
	<back>
		<ref-list>
			<title>Referencias</title>
			<ref id="B1">
				<label>1</label>
				<mixed-citation>1. Andrade H, Du Y. (2017). Student responses to criteria-referenced self-Assessment. Assessment and Evaluation in Higher Education, 32 (2), 159-181. <ext-link ext-link-type="uri" xlink:href="https://core.ac.uk/download/pdf/230537613.pdf">https://core.ac.uk/download/pdf/230537613.pdf</ext-link></mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Andrade</surname>
							<given-names>H</given-names>
						</name>
						<name>
							<surname>Du</surname>
							<given-names>Y</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>Student responses to criteria-referenced self-Assessment</article-title>
					<source>Assessment and Evaluation in Higher Education</source>
					<volume>32</volume>
					<issue>2</issue>
					<fpage>159</fpage>
					<lpage>181</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://core.ac.uk/download/pdf/230537613.pdf">https://core.ac.uk/download/pdf/230537613.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B2">
				<label>2</label>
				<mixed-citation>2. Álvarez JM. (2007). Evaluar para conocer, examinar para excluir. Ediciones Morata, SL, 2011.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Álvarez</surname>
							<given-names>JM</given-names>
						</name>
					</person-group>
					<year>2007</year>
					<source>Evaluar para conocer, examinar para excluir</source>
					<publisher-name>Ediciones Morata, SL, 2011</publisher-name>
				</element-citation>
			</ref>
			<ref id="B3">
				<label>3</label>
				<mixed-citation>3. Bisquerra R. (2004). Metodología de la investigación educativa (Vol. 1). Editorial La Muralla.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Bisquerra</surname>
							<given-names>R</given-names>
						</name>
					</person-group>
					<year>2004</year>
					<source>Metodología de la investigación educativa</source>
					<volume>1</volume>
					<publisher-name>Editorial La Muralla</publisher-name>
				</element-citation>
			</ref>
			<ref id="B4">
				<label>4</label>
				<mixed-citation>4. Boletín Oficial de la Región de Murcia. 9315 Decreto n.º 220/2015, de 2 de septiembre de2015, por el que se establece el currículo de la Educación Secundaria Obligatoria en la Comunidad Autónoma de la Región de Murcia. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://www.carm.es">https://www.carm.es</ext-link></mixed-citation>
				<element-citation publication-type="legal-doc">
					<person-group person-group-type="author">
						<collab>Boletín Oficial de la Región de Murcia</collab>
					</person-group>
					<source>9315 Decreto n.º 220/2015, de 2 de septiembre de2015, por el que se establece el currículo de la Educación Secundaria Obligatoria en la Comunidad Autónoma de la Región de Murcia</source>
					<ext-link ext-link-type="uri" xlink:href="https://www.carm.es">https://www.carm.es</ext-link>
				</element-citation>
			</ref>
			<ref id="B5">
				<label>5</label>
				<mixed-citation>5. Buendía L, Colás P, Hernández F. (1998). Métodos de Investigación en Psicopedagogía. Madrid: McGraw-Hill. <ext-link ext-link-type="uri" xlink:href="https://www.icmujeres.gob.mx/wp-content/uploads/2020/05/LEONOR-Metodos-de-investigacion-en-psicopedagogia-medili-bros.com_.pdf">https://www.icmujeres.gob.mx/wp-content/uploads/2020/05/LEONOR-Metodos-de-investigacion-en-psicopedagogia-medili-bros.com_.pdf</ext-link></mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Buendía</surname>
							<given-names>L</given-names>
						</name>
						<name>
							<surname>Colás</surname>
							<given-names>P</given-names>
						</name>
						<name>
							<surname>Hernández</surname>
							<given-names>F</given-names>
						</name>
					</person-group>
					<year>1998</year>
					<source>Métodos de Investigación en Psicopedagogía</source>
					<publisher-loc>Madrid</publisher-loc>
					<publisher-name>McGraw-Hill</publisher-name>
					<ext-link ext-link-type="uri" xlink:href="https://www.icmujeres.gob.mx/wp-content/uploads/2020/05/LEONOR-Metodos-de-investigacion-en-psicopedagogia-medili-bros.com_.pdf">https://www.icmujeres.gob.mx/wp-content/uploads/2020/05/LEONOR-Metodos-de-investigacion-en-psicopedagogia-medili-bros.com_.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B6">
				<label>6</label>
				<mixed-citation>6. DeVellis RF. (2016). Scale development: Theory and applications (4th ed.). Thousand Oaks, CA: Sage.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>DeVellis</surname>
							<given-names>RF</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<source>Scale development: Theory and applications</source>
					<edition>4th</edition>
					<publisher-loc>Thousand Oaks, CA</publisher-loc>
					<publisher-name>Sage</publisher-name>
				</element-citation>
			</ref>
			<ref id="B7">
				<label>7</label>
				<mixed-citation>7. Eggers k. (2016) Factores de eficacia escolar asociados al aprendizaje de alumnos del sistema de Telesecundaria en México. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://dialnet.unirioja.es/servlet/tesis?codigo=127207">https://dialnet.unirioja.es/servlet/tesis?codigo=127207</ext-link></mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>k</surname>
							<given-names>Eggers</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<source>Factores de eficacia escolar asociados al aprendizaje de alumnos del sistema de Telesecundaria en México</source>
					<ext-link ext-link-type="uri" xlink:href="https://dialnet.unirioja.es/servlet/tesis?codigo=127207">https://dialnet.unirioja.es/servlet/tesis?codigo=127207</ext-link>
				</element-citation>
			</ref>
			<ref id="B8">
				<label>8</label>
				<mixed-citation>8. Filstread W. (1986). Métodos cualitativos: Una experiencia necesaria en la investigación evaluativa. In Thomas-D C, Charles-S R. Métodos cualitativos y cuantitativos en investigación evaluativa, 59-80, Madrid: Ediciones Morata, S.L.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Filstread</surname>
							<given-names>W</given-names>
						</name>
					</person-group>
					<year>1986</year>
					<chapter-title>Métodos cualitativos: Una experiencia necesaria en la investigación evaluativa</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Thomas-D</surname>
							<given-names>C</given-names>
						</name>
						<name>
							<surname>Charles-S</surname>
							<given-names>R</given-names>
						</name>
					</person-group>
					<source>Métodos cualitativos y cuantitativos en investigación evaluativa</source>
					<fpage>59</fpage>
					<lpage>80</lpage>
					<publisher-loc>Madrid</publisher-loc>
					<publisher-name>Ediciones Morata, S.L</publisher-name>
				</element-citation>
			</ref>
			<ref id="B9">
				<label>9</label>
				<mixed-citation>9. García R. (2010). Utilidad de la integración y convergencia de los métodos cualitativos y cuantitativos en las investigaciones en salud. Revista Cubana Salud Pública, 36(1). <ext-link ext-link-type="uri" xlink:href="http://scielo.sld.cu/scielo.php?script=sci_ rttext&amp;pid=S0864-34662010000100004">http://scielo.sld.cu/scielo.php?script=sci_ rttext&amp;pid=S0864-34662010000100004</ext-link></mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>García</surname>
							<given-names>R</given-names>
						</name>
					</person-group>
					<year>2010</year>
					<article-title>Utilidad de la integración y convergencia de los métodos cualitativos y cuantitativos en las investigaciones en salud</article-title>
					<source>Revista Cubana Salud Pública</source>
					<volume>36</volume>
					<issue>1</issue>
					<ext-link ext-link-type="uri" xlink:href="http://scielo.sld.cu/scielo.php?script=sci_ rttext&amp;pid=S0864-34662010000100004">http://scielo.sld.cu/scielo.php?script=sci_ rttext&amp;pid=S0864-34662010000100004</ext-link>
				</element-citation>
			</ref>
			<ref id="B10">
				<label>10</label>
				<mixed-citation>10. Goncalves M. (2014). La Evaluación de los Aprendizajes en la Escuela Secundaria Actual. (Thesis). Universidad Abierta Interamericana. http://imgbiblio.vaneduc.edu. ar/fulltext/files/TC114759.pdf</mixed-citation>
				<element-citation publication-type="thesis">
					<person-group person-group-type="author">
						<name>
							<surname>Goncalves</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>La Evaluación de los Aprendizajes en la Escuela Secundaria Actual</source>
					<comment content-type="degree">Thesis</comment>
					<publisher-name>Universidad Abierta Interamericana</publisher-name>
				</element-citation>
			</ref>
			<ref id="B11">
				<label>11</label>
				<mixed-citation>11. Hernández F, Maquilón JJ. (2010). El proceso de investigación. Del problema al informe de investigación. In Competencias científicas para la realización de una tesis doctoral: guía metodológica de elaboración y presentación / coord. por Colás Bravo MP, Buendía Eisman L, Hernández Pina F, págs. 31-62. <ext-link ext-link-type="uri" xlink:href="https://grupos.unican.es/mide/masterin-nova/materiales/Proceso%20investigacion.pdf">https://grupos.unican.es/mide/masterin-nova/materiales/Proceso%20investigacion.pdf</ext-link></mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Hernández</surname>
							<given-names>F</given-names>
						</name>
						<name>
							<surname>Maquilón</surname>
							<given-names>JJ</given-names>
						</name>
					</person-group>
					<year>2010</year>
					<chapter-title>El proceso de investigación. Del problema al informe de investigación</chapter-title>
					<source>Competencias científicas para la realización de una tesis doctoral: guía metodológica de elaboración y presentación</source>
					<person-group person-group-type="author">
						<name>
							<surname>Colás Bravo</surname>
							<given-names>MP</given-names>
						</name>
						<name>
							<surname>Buendía Eisman</surname>
							<given-names>L</given-names>
						</name>
						<name>
							<surname>Hernández Pina</surname>
							<given-names>F</given-names>
						</name>
					</person-group>
					<fpage>31</fpage>
					<lpage>62</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://grupos.unican.es/mide/masterin-nova/materiales/Proceso%20investigacion.pdf">https://grupos.unican.es/mide/masterin-nova/materiales/Proceso%20investigacion.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B12">
				<label>12</label>
				<mixed-citation>12. BOE. Ley Orgánica 9/1995, de 20 de noviembre, de la participación, la evaluación y el gobierno de los centros docentes. BOE (Boletín Oficial del Estado), 278, de 21 de noviembre de 1995, 33651-33665. <ext-link ext-link-type="uri" xlink:href="https://www.boe.es/eli/es/lo/1995/11/20/9">https://www.boe.es/eli/es/lo/1995/11/20/9</ext-link></mixed-citation>
				<element-citation publication-type="legal-doc">
					<person-group person-group-type="author">
						<collab>BOE</collab>
					</person-group>
					<article-title>Ley Orgánica 9/1995, de 20 de noviembre, de la participación, la evaluación y el gobierno de los centros docentes</article-title>
					<source>BOE (Boletín Oficial del Estado)</source>
					<volume>278</volume>
					<day>21</day>
					<month>11</month>
					<year>1995</year>
					<fpage>33651</fpage>
					<lpage>33665</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://www.boe.es/eli/es/lo/1995/11/20/9">https://www.boe.es/eli/es/lo/1995/11/20/9</ext-link>
				</element-citation>
			</ref>
			<ref id="B13">
				<label>13</label>
				<mixed-citation>13. BOE. Ley Orgánica 10/2002, de 23 de diciembre, de Calidad de la Educación. BOE (Boletín Oficial del Estado), 307, de 24 de diciembre de 2002, 45196-45211. <ext-link ext-link-type="uri" xlink:href="https://www.boe.es/buscar/doc.php?id=BOE--A-2002-25037">https://www.boe.es/buscar/doc.php?id=BOE--A-2002-25037</ext-link></mixed-citation>
				<element-citation publication-type="legal-doc">
					<person-group person-group-type="author">
						<collab>BOE</collab>
					</person-group>
					<article-title>Ley Orgánica 10/2002, de 23 de diciembre, de Calidad de la Educación</article-title>
					<source>BOE (Boletín Oficial del Estado)</source>
					<volume>307</volume>
					<day>24</day>
					<month>12</month>
					<year>2002</year>
					<fpage>45196</fpage>
					<lpage>45211</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://www.boe.es/buscar/doc.php?id=BOE--A-2002-25037">https://www.boe.es/buscar/doc.php?id=BOE--A-2002-25037</ext-link>
				</element-citation>
			</ref>
			<ref id="B14">
				<label>14</label>
				<mixed-citation>14. BOE. Ley Orgánica 3/2020, de 29 de diciembre, por la que se modifica la Ley Orgánica 2/2006, de 3 de mayo, de Educación. BOE (Boletín Oficial del Estado), 340, 30 de diciembre de 2020, 122868-122953. <ext-link ext-link-type="uri" xlink:href="https://www. boe.es/eli/es/lo/2020/12/29/3">https://www. boe.es/eli/es/lo/2020/12/29/3</ext-link></mixed-citation>
				<element-citation publication-type="legal-doc">
					<person-group person-group-type="author">
						<collab>BOE</collab>
					</person-group>
					<article-title>Ley Orgánica 3/2020, de 29 de diciembre, por la que se modifica la Ley Orgánica 2/2006, de 3 de mayo, de Educación</article-title>
					<source>BOE (Boletín Oficial del Estado)</source>
					<volume>340</volume>
					<day>30</day>
					<month>12</month>
					<year>2020</year>
					<fpage>122868</fpage>
					<lpage>122953</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://www. boe.es/eli/es/lo/2020/12/29/3">https://www. boe.es/eli/es/lo/2020/12/29/3</ext-link>
				</element-citation>
			</ref>
			<ref id="B15">
				<label>15</label>
				<mixed-citation>15. Monteagudo F. (2014) Las Prácticas de Evaluación en la Materia de Historia de 4º de ESO en la Comunidad Autónoma de la Región de Murcia. (Thesis). University of Murcia. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://www.tdx.cat/ bitstream/handle/10803/130989/TJMF.pdf?sequence=1">https://www.tdx.cat/ bitstream/handle/10803/130989/TJMF.pdf?sequence=1</ext-link></mixed-citation>
				<element-citation publication-type="thesis">
					<person-group person-group-type="author">
						<name>
							<surname>Monteagudo</surname>
							<given-names>F</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>Las Prácticas de Evaluación en la Materia de Historia de 4º de ESO en la Comunidad Autónoma de la Región de Murcia</source>
					<comment content-type="degree">Thesis</comment>
					<publisher-name>University of Murcia</publisher-name>
					<ext-link ext-link-type="uri" xlink:href="https://www.tdx.cat/ bitstream/handle/10803/130989/TJMF.pdf?sequence=1">https://www.tdx.cat/ bitstream/handle/10803/130989/TJMF.pdf?sequence=1</ext-link>
				</element-citation>
			</ref>
			<ref id="B16">
				<label>16</label>
				<mixed-citation>16. Morales JJ. (2001). La Evaluación en el Área de Educación Visual y Plástica en la ESO. (Thesis) UAB. <ext-link ext-link-type="uri" xlink:href="https://www.tdx.cat/bitstream/handle/10803/5036/jjma01de16. pdf.pdf">https://www.tdx.cat/bitstream/handle/10803/5036/jjma01de16. pdf.pdf</ext-link></mixed-citation>
				<element-citation publication-type="thesis">
					<person-group person-group-type="author">
						<name>
							<surname>Morales</surname>
							<given-names>JJ</given-names>
						</name>
					</person-group>
					<year>2001</year>
					<source>La Evaluación en el Área de Educación Visual y Plástica en la ESO</source>
					<comment content-type="degree">Thesis</comment>
					<publisher-name>UAB</publisher-name>
					<ext-link ext-link-type="uri" xlink:href="https://www.tdx.cat/bitstream/handle/10803/5036/jjma01de16. pdf.pdf">https://www.tdx.cat/bitstream/handle/10803/5036/jjma01de16. pdf.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B17">
				<label>17</label>
				<mixed-citation>17. BOE. Orden de 16 de noviembre 1970 sobre evaluación continua del rendimiento educativo de los alumnos. (BOE) Boletín Oficial del Estado, 282, de 25 de noviembre de 1970, 19106-19108. <ext-link ext-link-type="uri" xlink:href="https://www.boe.es/boe/dias/1970/11/25/pdfs/A19106-19108.pdf">https://www.boe.es/boe/dias/1970/11/25/pdfs/A19106-19108.pdf</ext-link></mixed-citation>
				<element-citation publication-type="legal-doc">
					<person-group person-group-type="author">
						<collab>BOE</collab>
					</person-group>
					<article-title>Orden de 16 de noviembre 1970 sobre evaluación continua del rendimiento educativo de los alumnos</article-title>
					<source>(BOE) Boletín Oficial del Estado</source>
					<volume>282</volume>
					<day>25</day>
					<month>11</month>
					<year>1970</year>
					<fpage>19106</fpage>
					<lpage>19108</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://www.boe.es/boe/dias/1970/11/25/pdfs/A19106-19108.pdf">https://www.boe.es/boe/dias/1970/11/25/pdfs/A19106-19108.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B18">
				<label>18</label>
				<mixed-citation>18. Pérez E. (1999). Epistemología de la evaluación cualitativa. Teoría y Didáctica de las Ciencias Sociales, 4, 7-18. <ext-link ext-link-type="uri" xlink:href="http://www.saber.ula.ve/handle/123456789/23937">http://www.saber.ula.ve/handle/123456789/23937</ext-link></mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Pérez</surname>
							<given-names>E</given-names>
						</name>
					</person-group>
					<year>1999</year>
					<article-title>Epistemología de la evaluación cualitativa</article-title>
					<source>Teoría y Didáctica de las Ciencias Sociales</source>
					<volume>4</volume>
					<fpage>7</fpage>
					<lpage>18</lpage>
					<ext-link ext-link-type="uri" xlink:href="http://www.saber.ula.ve/handle/123456789/23937">http://www.saber.ula.ve/handle/123456789/23937</ext-link>
				</element-citation>
			</ref>
			<ref id="B19">
				<label>19</label>
				<mixed-citation>19. Pérez ML, Carretero Torres MR. (2009). La evaluación del aprendizaje en la educación secundaria: análisis de cambio. Límite. Revista de Filosofía y Psicología, Volumen 4, Nº 19, 93-126. <ext-link ext-link-type="uri" xlink:href="https://www.redalyc. org/pdf/836/83611433005.pdf">https://www.redalyc. org/pdf/836/83611433005.pdf</ext-link></mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Pérez</surname>
							<given-names>ML</given-names>
						</name>
						<name>
							<surname>Carretero Torres</surname>
							<given-names>MR</given-names>
						</name>
					</person-group>
					<year>2009</year>
					<article-title>La evaluación del aprendizaje en la educación secundaria: análisis de cambio</article-title>
					<source>Límite. Revista de Filosofía y Psicología</source>
					<volume>4</volume>
					<issue>19</issue>
					<fpage>93</fpage>
					<lpage>126</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://www.redalyc. org/pdf/836/83611433005.pdf">https://www.redalyc. org/pdf/836/83611433005.pdf</ext-link>
				</element-citation>
			</ref>
		</ref-list>
	</back>
</article>