Thursday, May 10, 2007

CONDICIONAMIENTO OPERANTE II

En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los Refuerzos, explicando los planteamientos de su autor y descubridor, el Sr. B.F Skinner, considerado como uno de los psicólogos más influyentes dentro de las teorías del aprendizaje.
Skinner, según lo escrito en su libro “Más allá de la libertad y de la dignidad” de 1971, tendiente a erradicar en nombre de la ciencia determinista y naturalista, la concepción tradicional de occidente, que ve en el hombre a un ser libre y responsable; afirma que la lucha del hombre por su libertad personal, no se debe a su inalienable voluntad, sino a una serie de procesos conductuales, característicos del organismo humano, cuyo principal efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente; recondicionando adecuadamente estos procesos conductuales. Así, la conducta no es ningún proceso interno, sino que es la acción del organismo ante las condiciones del mundo exterior, por esto considera Skinner que “no existe el hombre autónomo”.

La conducta, objeto de estudio de Skinner, también hace posible relacionar al hombre con una vida social y armónica que proporciona al individuo seguridad y felicidad, por lo que él considera a la Libertad, no una ventaja sino más bien una amenaza.

Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante; proceso mediante el cual se aumenta o disminuye la probabilidad de dar una respuesta, designando Skinner a esto como Reforzamientos, el cual consiste en un Estimulo Reforzante, que incrementa la posibilidad de un comportamiento, pudiendo ser este negativo o positivo, dependiendo de la relación que el individuo tenga con el medio ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos.

En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores que influyen en ellos, también sus programas de reforzamiento que pueden ser parciales o continuos.

Skinner también plantea que toda la conducta humana es producto de reforzamientos, atribuyendo una importancia fundamental al aprendizaje aplicado a la educación y a la vida diaria.

Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de los programas más significativos de reforzamiento, clarificando lo que Skinner planteaba al decir que el profesor es un constructor de conductas. Finalmente se realizaran observaciones a las objeciones y desacuerdos de esta teoría y se darán a conocer algunas diferencias con otras teorías.


DESCRIPCIÓN DE LA TEORÍA

Primero que todo, el condicionamiento operante, análisis experimental de la conducta (AEC) desarrollado por el psicólogo neoconductista B.F Skinner, se puede definir de la siguiente forma:

Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el medio ambiente, basados en un método experimental. Es decir, que ante un estimulo, se produce una respuesta, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se fortalezca.





Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un Estímulo discriminativo y a otro llamado estimulo reforzador:

Es siempre una relación de contingencia.


Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como influyentes en la conducta.

Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por este psicólogo de Pennsylvania, llamado la “Caja de Skinner”.

Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales se encontraban en el interior de una caja de simple fabricación, que tenia por dentro una palanca llamada “manipolandum”, la cual podía ser bajada con una liguera presión, y que al ser accionada provocaría que el alimento contenido en un tazón al interior de esta cayera.

En un principio el “animalito” , que ha sido privado de alimento durante unas horas, se desplazará de un lado a otro, apoyando su cuerpo en los costados de la caja, picoteando y rasguñando la pared transparente, etc. En algún momento, y solamente por “casualidad”, la palanca será accionada por la patita o pico del animalito, provocando que el alimento caiga para en ese momento comer el alimento. Este proceso se repetirá varias veces voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es retribuida con una recompensa, por lo cual esta acción se ira repitiendo con mayor frecuencia, dejando de lado a aquellas en la que no es recompensado.

Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un momento era accidental.

Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO OPERANTE.


CONCEPTUALIZACIÓN DE LA TEORÍA

La palabra “Refuerzo” es piedra angular en el planteamiento de Skinner, y este puede ser definido como el estimulo que al aumentar o desaparecer, aumenta la posibilidad de una respuesta. Entonces una serie de estas acciones refuerzan la conducta en un sentido positivo o negativo.

Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios (condicionados) y Generalizados:

REFORZADORES PRIMARIOS: Son aquellos que no dependen de la historia del sujeto, sino de las características biológicas; son comunes a todos los sujetos de la especie y tienen un carácter altamente adaptativo, guardando relación directa con la supervivencia del sujeto y la especie.

REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen relación directa con la supervivencia y dependen, más bien, de la historia individual del sujeto.

REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras más son presentados no reducen su efectividad, sino que, se mantiene. Son independientes de la intensidad o frecuencia que tienen y tienen una relación estrecha con la historia individual.





Los dos tipos de refuerzos básicos en la teoría de Skinner son:

· Refuerzo positivo
· Refuerzo negativo

REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente la probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo que esa respuesta aumente o se repita en el futuro. Unos ejemplos de esto seria:

-Un alumno al finalizar su disertación, obtiene las felicitaciones del profesor y los aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos positivos, ya al resultar gratificante para el alumno este refuerzo, su respuesta será estudiar con más dedicación aun, para el próximo trabajo.

-Si María le dice a Juan que lo quiere mucho más después de haberle regalado chocolates, la consecuencia de la conducta de Juan, será tan gratificante para él, que su conducta se verá reforzada a que aumente o se repita en el futuro.


El “Refuerzo positivo” incorpora una conducta nueva, aumenta una existente o elimina una conducta inapropiada incompatible.

Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser aplicadas en todas las situaciones, por lo que el reforzador a seleccionar, deberá tener una capacidad de refuerzo que se haya demostrado para el individuo concreto bajo condiciones específicas.

Es importante aclarar que, la expresión “Positivo”, no tiene una connotación ética, valórica o moral.

REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una conducta, como consecuencia de la omisión o retirada de un estimulo.

A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la respuesta o conducta, y como consecuencia aumenta dicha conducta.

Es importante señalar que la omisión del estimulo, no basta para que se refuerce negativamente la conducta, sino que será fundamental que a través de la respuesta se elimine dicho estimulo de un entorno, es decir, la desaparición de la contingencia es consecuencia de la conducta.

Ejemplos de reforzamiento negativo seria:

-estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de las pruebas de repetición. De manera clara se entiende que el refuerzo exime de la prueba, y la diferencia con el refuerzo positivo, es que aquí se esta eliminando (eximir de la prueba) algo del entorno.

-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga desaparecer esa molestia. Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es eliminado tomando un analgésico.


En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina un estímulo aversivo que le antecede, por consiguiente se da un incremento a la conducta que causo la eliminación o desaparición de este estímulo.
Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a personas a realizar cosas que le resultan difíciles como:

-Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre un par de patines, monte en motocicleta o se interne en una caverna, pero el ridículo ante sus amigos, lo que ellos pueden decirle a manera de insulto o evocando a la cobardía, puede ser lo suficientemente aversivo para que el sujeto desee eliminarlo y acepte el reto y termine realizando la conducta negada

El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:

· Condicionamiento de Escape
· Condicionamiento de Evitación


CONDICIONAMIENTO DE ESCAPE:

Es cuando se aplica un castigo, pero este se termina cuando se produce una conducta, es decir, es cuando se aprende a dar una respuesta que elimina o hace desaparecer una situación que resulta desagradable. Ejemplo :

-Los niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la estufa o cocina, las deben alejar rápidamente para evitar quemarse.


CONDICIONAMIENTO DE EVITACIÓN:

Es cuando, se eliminan o reducen estímulos que anteriormente han estado seguidos de estímulos aversivos. La diferencia con el condicionamiento de escape, es que aquí el organismo no recibe el estimulo aversivo, en cambio en el condicionamiento de escape el organismo termina o reduce el estímulo aversivo a través de la respuesta, que vera aumentada su frecuencia. Un ejemplo de condicionamiento de evitación seria:

-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una carretera permitida a 100k/h será detenido por carabineros y se le cursará el parte correspondiente, por lo cual, a través de su conducta evita ese estímulo aversivo.

Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la Extinción de los refuerzos.


CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador inmediatamente después de una conducta, disminuyendo o eliminando la probabilidad de repetición de dicha conducta. Ejemplo :

-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la clase por motivos de indisciplina. Aquí se ejemplifica correctamente lo que dice la definición, ya que se aplica un Castigo (estimulo aversivo) inmediatamente después de una conducta.

-La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual, es Castigado a 5 años de cárcel.

Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la posibilidad que el individuo, según las condiciones del ambiente (sociedad, rehabilitación, necesidades,etc.) vuelva a reincidir en su conducta.

EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el reforzamiento que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo que la hace existir. Ejemplos:

-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de guitarra debido al fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía la conducta la conducta del joven se ha “terminado”, por lo cual la conducta dejara de producirse.

-En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron atención a ella y disminuyó por debajo del nivel usual cuando la pasaron por alto y prestaron su atención a los niños que no se estaban portando mal

A pesar de que el efecto de disminución o desaparición de la conducta es igual en el procedimiento de Castigo como en el de Extinción, se diferencian en que en el primero no se rompe el proceso de contingencia, cosa que si sucede en el otro.

Otros procedimientos importantes desde el punto de vista del control de las conductas son:

§ La discriminación
§ La generalización


LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante la presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia de un Estimulo discriminatorio hace posible que una respuesta dada, sea reforzada, pero importante es señalar que para que esto ocurra, debe existir por lo menos un Estimulo delta, que es en cuya presencia no existe refuerzo y funciona para suprimir o inhibir la conducta. Así, si un Estimulo discriminatorio, logra reforzar la conducta, los demás estímulos serán Estímulos delta. Un ejemplo de el Procedimiento de discriminación es :
-En el metro se señalan a través de imágenes los asientos que son de preferencia para minusválidos, embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo discriminatorio, ya que discriminan una respuesta de ocupar un asiento destinado para otras personas.

LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la mayor cantidad de estímulos posibles. Ejemplo :

-se ha enseñado a un niño a decir “buenos días” a su padre, para lograr que esa conducta se reproduzca con otros adultos, es decir, se generalice ante la mayor cantidad de estímulos denominados “adultos”, basta con reforzar sistemáticamente la respuesta “buenos días”, cada vez que se emita ante cualquier adulto.

Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una generalización y viceversa.


FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO

Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino que además se deberán tomar en consideración importantes factores como: Inmediatez, Cantidad de refuerzo, condiciones, probación y exposición, entre otros, que ayudaran a acrecentar la efectividad del refuerzo.


INMEDIATEZ DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un principio fundamental sobre el control de la conducta es que un refuerzo inmediato es más efectivo que el retrasado. Por ejemplo:
-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo reforzar esa conducta con un gracias de inmediato, que con retraso, ya que de lo contrario, el organismo tendría el tiempo para producir otra conducta, entre el lapso de la conducta original y el reforzamiento retardado, por lo que el reforzamiento seria en la conducta derivada de otra.


CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe suministrar depende de varios factores: el tipo de reforzador usado, las condiciones de privación y el esfuerzo necesario para dar la respuesta. Se debe tener en cuenta los conceptos de:

§ Privación
§ Saciedad

Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su acceso, a favor de de la efectividad del refuerzo. Por ejemplo:

-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a mostrar, este refuerzo será más efectivo.

Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad inapropiada del refuerzo termina por saciar al organismo. La supresión de la conducta, es por causa del reforzador que la mantiene. Ejemplo :

-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por saciarse y acabará cambiando alguna conducta de obediencia que haya tenido. Así una buena opción es proporcionarle tantos cigarrillos para que fume, que luego termine mareado y con náuseas y por no querer saber nada a cerca de los mismos.


CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato, los individuos pueden identificar con mayor facilidad las conductas que conducen al reforzamiento y las que no. Otro factor que puede facilitar la discriminación es la especificación clara de las condiciones ambientales, o estímulos, bajo las cuales se suministrará el reforzamiento.

PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de las numerosas respuestas, será reforzada.

Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos diseñados a moldear, incrementar, reducir o mantener una conducta.

PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el sujeto al cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada situación, el refuerzo que podría ser aplicado resultaría desconocido.

EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un refuerzo, como en el caso de la probación, Entonces, se procede a exponerlo a las condiciones más parecidas que se pueda a aquellas en las cuales se utiliza el reforzamiento. Incluso si es necesario ocupar a otra persona a la cual se le ha aplicado el refuerzo.




PROGRAMAS DE REFORZAMIENTO
Los programas de reforzamiento son “reglas”, que determinan cuando seguirá la entrega o presentación contingente de un reforzador a la presentación de una respuesta o conducta. Existen diferentes tipos de programas de reforzamiento, de los cuales, definiremos los más significativos.


PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa, cuando el refuerzo es manifestado en cada momento de ser producida una respuesta. Ejemplo:

-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor pronuncia su nombre dándole la palabra.

PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este reforzamiento se da cuando son reforzadas solo algunas de las conductas emitidas por el organismo, no todas. En la vida cotidiana, en el colegio, universidad, etc., se dan estos tipos de programas. Ejemplo:

-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta no ha sido reforzada; no queriendo decir con ello que no ocurra la próxima vez.

Según los experimentos realizados por Skinner, los programas de reforzamiento parcial, son bastante estables y mantienen la conducta por periodos más largos que los programas de reforzamiento continuo.

Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en cuenta el número
de respuestas o también el tiempo que transcurre. Por lo tanto hay que tomar en consideración:

-Programa de razón
-Programa de intervalo

PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de presentar un reforzador, es decir, el reforzador depende de la conducta del organismo en base al número de respuestas de este.
Este programa se subdivide en dos:

Razón (tasa) fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un determinado numero de repuestas que se ha establecido de antemano. Ejemplo :

-Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón fija será 10.

Razón (tasa) variable: los reforzamientos ocurren después de una cantidad variable de respuestas, no después de un número fijos. Esta cantidad difieren de reforzamiento en reforzamiento. Ejemplo :
-
Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad variable, que se le dará el reforzamiento (dar el helado) cuando venda el primer helado, el segundo reforzamiento le será dado cuando venda el tercer helado, el tercero cuando venda el cuarto y el cuarto cuando venda ocho. Así el valor de la razón variable se designa por el promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el promedio cuatro

PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo transcurrido antes de proporcionar el reforzador.
Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la primera respuesta que se obtiene luego de transcurrido el tiempo previsto; es decir, el reforzamiento, cualquiera que sea el programa seguido (de razón o de intervalo) siempre debe ser consecuencia de una respuesta.

Existen dos tipos de programas de intervalo:

Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de este, se refuerza la primera respuesta que se emita.

Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 2-4-7; y en donde se refuerza la primera conducta transcurrido el tiempo. Ejemplo :
-Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros minutos, luego se refuerza la primera conducta pasados cuatro minutos y finalmente se reforzará la primera conducta pasados siete minutos. El promedio de estos será el valor del intervalo variable



Otros programas de reforzamiento:

PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas independientes, los cuales se presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo característico. Los programas múltiples son programas combinados, en los que se agrega un estímulo discriminativo característico.

PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A diferencia del múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el sujeto puede emitir dos respuestas distintas que se refuerzan simultáneamente por programas independientes, pero paralelos en el tiempo. Los reforzamientos previstos en cada programa son independientes entre sí. Este tipo de programa se utiliza cuando se desea reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social.

PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece una proporción entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo general, estas medidas están dadas por la frecuencia del reforzamiento, pero también pueden seguir propiedades tales como la magnitud de la respuesta y la magnitud del reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento recibe, hay una proporción directa entre conducta y reforzamiento. La relación también puede ser inversa; dependiendo de los propósitos del programa. Es adecuado permitir al sujeto establecer el criterio de reforzamiento a través de la propia emisión de su conducta.

Por ejemplo: si un niño realiza dos ejercicios de matemáticas, recibe un caramelo; si realiza cuatro, recibe dos caramelos, etc.








CUESTIONAMIENTOS A LA TEORÍA DE SKINNER

Entre las críticas que se hacen a la teoría de Skinner, están aquellas que la acusan de hacer una comparación abusiva, al tratar de explicar los procesos de la vida real en experimentos de laboratorio con animalitos. Uno de sus principales detractores en relación a esto es Chomsky, ante lo cual Skinner responde que estos ataques no eran más que una manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales tiene lugar dicha conducta.

Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los resultados de sus experimentos, sin necesidad de generalizar.

Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido número de sujetos que utilizan en las experiencias. Para los críticos (generalmente ajenos al que hacer experimental), parece inconcebible, e incluso inexplicable, la tendencia conductista a la utilización del caso único, un lugar de emplear grandes muestras representativas con el fin de poder justificar “quizás” convenientemente el generalizar los resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino que son resultados de estudios científicos comprobados.

Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como fue la realizada por el sociólogo Andreski: “en contraste a tal pretensión (hacer ciencia) la más grande realización de Skinner, en el dominio de la tecnología de la conducta ha sido la de amaestrar a dos palomas para que lancen una pelota de ping- pong hacia adelante y hacia atrás. Este logro exige, probablemente, mucha perseverancia e imaginación, pero justifica apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de animales, aunque no sea evidente a simple vista que valla más allá de logros de los amaestradores del circo”.

En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana, reduciéndola a un conjunto de mecanismos que no hacen sino asemejarla a una maquina o los animales. Consideran, además, que las actividades propias del ser humano es decir, justamente aquellas que lo diferencian de lo animal (virtud, creatividad, altruismo, imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin valor intrínseco alguno.


DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL CONDICIONAMIENTO CLÁSICO

La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es una forma de aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el condicionamiento operante (teoría de los refuerzos) el aprendizaje es un estimulo-respuesta-se fija la respuesta.

Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o incondicionada será siempre la misma, a diferencia del operante, en donde las respuestas suelen ser distintas.

También en el condicionamiento clásico se evidencia una ley de continuidad, mientras que en el otro se implica además una ley de efecto, es decir, la concreción de una respuesta.

Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos. Uno de estas similitudes seria que según los estudios realizados hasta ahora, tanto en el condicionamiento operante como en el clásico una respuesta que se ha extinguido, recupera su fuerza con el descanso.

También en ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca una respuesta condicionada.


APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN

Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta humana es manipulable, logro que su teoría fuera introducida en la educación para el proceso enseñanza-aprendizaje.

Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para ellos el comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente, en la cual todo ese comportamiento es aprendido. Por lo tanto cualquier problema de conducta es el reflejo de los refuerzos que dicho comportamiento ha tenido.

Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros deben proveer a los educandos un ambiente adecuado para el refuerzo de las conductas deseadas. Por consiguiente las conductas no deseadas que el alumno tenga en el aula, pueden ser modificadas utilizando los principios básicos del control de estas explicados anteriormente en el presente trabajo.

Las posiciones más comunes adoptadas por los profesores en los establecimientos, son las siguientes:
· Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para aprender y cumplir con los requisitos escolares.
· Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para todos los estudiantes por igual.
· El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y detallado.
Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento serian:

· Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta reemplazarla por completo.
· Debilitar las conductas no deseadas eliminando los refuerzos de estas.
· La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.
· Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a tomar otra respuesta a dicho estimulo.
· Usando castigos para debilitar a conducta no deseada.

Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje programado. En donde la materia a impartir, se separa en partes simples y se empieza por ejemplo; preguntando cosas en que el alumno tiene conocimiento, ante cuya respuesta (conducta) se le refuerza con felicitaciones o puntaje para el examen final. Así de a poco y ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo preguntas con un mayor grado de dificultad, reforzando las correctas.


CONCLUSIONES

La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter motivador para dirigirla. Son fundamentales en el aprendizaje coonductual sabiendo utilizarlos, para lograr una respuesta esperada de los alumnos.

Así, se comprueba que el comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc.
Para el estudiante de pedagogía y futuro profesor, es indispensable manejar este tema, como estrategia para el mejor logro de la educación, reforzar en los educandos sus valores, metas, intereses; ayudando también a tener una buena relación.

Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos dejan experiencias en nuestras relaciones, para en otra ocasión aprender de ellos.

El organismo siempre esta en movimiento o en proceso de operar. Se encuentra con un determinado tipo de estímulo, llamado estimulo reforzador.

El modelo de Skinner acerca de los refuerzos, explica que cuando una respuesta otorga satisfacción o placer al ejecutante, esta tiene más posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja.

Skinner como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de conducta, aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan sus obras que se refieren a los estímulos y los refuerzos.

A pesar de la validez en las críticas que se le realizan al conductismo operante, como el reduccionismo y simplismo, ha sido innegable el aporte que ha tenido este, a la vida del hombre.
Ayudándole en todo tipo áreas. El saber controlar bien una conducta a través de los refuerzos ayudara a las personas a vivir en un mundo más placentero, ya que se podrán por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como inadecuadas.

Sin embargo, para que lo anterior sea efectivo, tenemos que tener un total conocimiento de esta teoría, de manera que podamos conocer el real alcance que tienen los estímulos reforzadores en el control de la conducta, conociendo su potencial. Como decía Skinner, toda la vida esta plagada de refuerzos, sin embargo el común de la gente, ante el desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos de la forma más conveniente. Es por eso, que los profesores pilares fundamentales en el proceso de enseñanza - aprendizaje, deben tener un conocimiento cabal de la teoría operante, para poder controlar la infinidad de conductas que operan en los alumnos, en post de una sociedad mejor.



BIBLIOGRAFÍA
· Psicología: un aporte a la Educación. SALAZAR, Dayanira (compilación).Editor universidad Arturo Prat. 1° Edición. Santiago. Chile. 2003.
· Sitio web http://www.loshorcones.org.mx/glosario.html
· Sitio web http://www.euskalnet.net/txiribi/terapias.htm
· Sitio web http://www.cuc.udg.mx/psicologia/skinner.html
· Sitio-web-http://www.google.cl/search?q=cache:Iv-pZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_operante.pdf+descripcion+del+condicionamiento+operante&hl=es&ie=UTF-8
· El consultor psicopedagógico en la escuela. DINMEYER, Don – CARLSON, Jon. Editorial Guadalupe. Buenos Aires. Argentina. 1973.






Sunday, May 06, 2007

CONDICIONAMIENTO OPERANTE I



EL CONDICIONAMIENTO OPERANTE

CONDUCTA OPERANTE:

Propósito y Conducta

Debido a los efectos que produce el ambiente la conducta, se asigna una cualidad o propiedad de propositividad a la conducta, a fin de traer al presente efectivo “lo que hace el organismo emitir la conducta” o bien, se dice que el organismo se comporta de una manera determinada debido a que tiene la intención de lograr, o que espera obtener, un efecto dado; o se caracteriza a la conducta como poseyendo utilidad en tanto maximice o minimice ciertos efectos.

La ley del efecto de Thorndike, dio el paso en esa dirección: la ocurrencia aproximadamente simultánea de una respuesta, y ciertos eventos ambientales (comúnmente generados por ella), cambian las respuestas del organismo, aumentando la probabilidad de que ocurran de nuevo las respuestas de la misma especie. En sí misma, la respuesta ha pasado a la historia y no es alterada. Thorndike hizo lo posible por incluir los efectos de la acción entre las causas de la acción futura sin usar conceptos como propósitos, intención, expectativa, utilidad.

La ley del efecto agregó una nueva clase de variables importantes, de las que podía demostrarse que la conducta era una función. Los aparatos utilizados para el estudio de la conducta durante el siguiente cuarto de siglo continuaron enfatizando una relación de intencionalidad entre la conducta y sus consecuencias.

Una vez que el procedimiento se hizo común, no resultó difícil diseñar un aparato en el cual una respuesta produjese alimento de una manera similar.

Uno de los colaboradores de Pavlov –Ivanov Esmoloensky- estudió una disposición experimental análoga a la de Thorndike. A pesar de saber como o porqué siguen a la conducta, las consecuencias de una acción cambian al organismo. La conexión no necesita ser funcional u orgánica, como en realidad no lo fue en el experimento de Thorndike.

Ventajas y Prácticas.

Los primeros aparatos no fueron diseñados para eliminar las representaciones espaciales de la positividad; sin embargo, así lo hicieron, y este hecho tuvo consecuencias de gran alcance. El experimentador podía elegir una respuesta que era convenientemente registrada, o una que el organismo pudiera ejecutar sin fuerza por tiempos prolongados.

Una respuesta que sólo se relaciona de modo temporal con sus consecuencias, también podría estudiarse convenientemente mediante el empleo de equipos automáticos. La disponibilidad del equipo automático ha ayudado a realizar experimentos y ha facilitó el estudio de relaciones entre respuestas y consecuencias tan complejas como para disponerlas en forma manual o inspeccionarlas ocularmente.

Otro resultado práctico fue terminológico. El concepto de Reflejo no hacía referencia a las consecuencias de una respuesta. Con frecuencia los reflejos eran obviamente protectores de daño; pero este era un efecto primordialmente filogenético. El término Operante se estableció para diferenciar los Reflejos de las Respuestas que operan directamente en el ambiente.

El término alternativo, Instrumental, sugiere el uso de instrumentos. Es decir, que una rata usa la palanca para obtener alimento, tiene matices propositivos y en los casos donde no hay indicios que puedan identificar a algo como un instrumento, frecuentemente se dice que el organismo usa la respuesta para obtener un efecto.

Otro cambio fue de Recompensa a Refuerzo. Recompensar sugiere compensación por comportarse de una manera determinada, frecuentemente como en una especie de contrato; el Término Refuerzo, en su sentido etimológico, simplemente señala EL FORTALECIMIENTO DE UNA RESPUESTA.

La Taza de respuesta como un dato

Un resultado importante del estudio de una relación arbitraria entre una respuesta y sus consecuencias, además de la simplificación en los procesos del que se llegó a disponer, ha sido el énfasis que ha sido puesto en la taza de respuestas como una propiedad de la conducta. Los primeros aparatos casi siempre se usaron para estudiar las respuestas de ensayo a ensayo, en las cuales las tazas de respuesta son controladas por el experimentador. En un registro acumulativo, la taza y los cambios en la taza son notorios a primera vista sobre períodos sustanciales. El registro automático permite al experimentador advertir los cambios conforme ocurren, así como seguir los pasos apropiados.

La taza de respuesta resulta importante además de que es apropiada para el análisis principal.


Burrhus Frederic Skinner

Biografía

Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de trabajo duro.

Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16 años de un aneurisma cerebral.

Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad, incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un ateo (en una universidad que exigía asistir diariamente a la capilla).

Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York como “bohemio”. Después de algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta 1936.

También en este año, se mudó a Mineápolis para enseñar en la Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un bebé en un acuario.

En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología, incluyendo el libro Walden two, un compendio de ficción sobre una comunidad dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término conductual, por ser más apropiado dentro del campo de la psicología. N.T.

El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.


MODELO DE SKINNER

Al Igual que Pavlov, Watson y Thorndike, Skinner creía en los patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que ver con cambios observables de conducta ignorando la posibilidad de cualquier proceso que pudiera tener lugar en la mente de las personas. El libro de Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en el condicionamiento operante.

También escribió Ciencia y Conducta Humana, (1953) en el cual resalta la manera en que los principios del condicionamiento operatorio funcionan en instituciones sociales tales como, gobierno, el derecho, la religión, la economía y la educación.

El trabajo de Skinner difiere de sus predecesores (condicionamiento clásico), en que él estudió la conducta operatoria (conducta voluntaria usada en operaciones dentro del entorno).

El sistema de Skinner al completo está basado en el condicionamiento operante. El organismo está en proceso de “operar” sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace.

Durante esta “operatividad”, el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador).



Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro.”


REFUERZO: TODA INSTANCIA QUE LLEVE A INCREMENTAR LA FRECUENCIA DE RESPUESTA DEL ORGANISMO
El refuerzo SIEMPRE INCREMENTA la frecuencia de respuesta del organismo…

Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, “la caja de Skinner”) que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando “sin querer” pisa la barra y ¡presto!, la bolita de comida cae en la caja.

Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja.

Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.

¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.

Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.

Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.


Esquemas De Refuerzo

Skinner menciona que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba “bajo de provisiones” de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los esquemas de refuerzo.

El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.


TAZA: Numero de veces que se da una conducta por unidad de tiempo


TAZA FIJA El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O “x” veces. Existe una frecuencia fija entre los comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una “tasa por pieza” en la producción industrial de ropa: cobras más mientras más camisetas hagas.

INTERVALO FIJO El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el “paso”: bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.

TAZA VARIABLE Una frecuencia variable significa que podemos cambiar la “x” cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.

INTERVALO VARIABLE Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el “ritmo” por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción.

Pensándolo detenidamente… verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa “errónea”…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!

Wednesday, April 25, 2007

APLICACIÓN DEL MODELO DE THORNDIKE A LA EDUCACIÓN

APLICACIÓN DEL MODELO DE CONDICIONAMIENTO INSTRUMENTAL A LA EDUCACIÓN

El conexionismo de Thorndike

El marco conceptual de Thorndike en su teoría del aprendizaje es una versión temprana de la teoría del refuerzo E-R. Al tiempo que empleaba una metodología completamente objetiva, realzaba el principio de aprendizaje por continuidad con el principio del refuerzo.

En el uso ordinario, el término se utiliza para denotar cualquier evento consecuente a una respuesta si aumenta la probabilidad de que dicha respuesta ocurra. La versión de Thorndike, expresado en la ley del efecto, sostenía que la consecuencia inmediata de una conexión E-R, (especialmente si era algo satisfactorio) podía influir en la asociación para reforzarla. Los mecanicistas rígidos elevaron objeciones a esta ley que situaba la causa después del efecto, objeción que ahora parece insostenible. En esta era del servomecanismo y del principio de retroalimentación, la posibilidad del control de la conducta según la información comunicada por sus consecuencias a duras penas pude ser cuestionada. Afirmando que:

“Por estado de cosas satisfactorio o satisfacer se quiere decir algo que el animal no hace para evitar, sino que con frecuencia procede a mantenerlo o renovarlo. Estado de cosas desagradable quiere decir que el animal no hace nada para preservarlo, procediendo a menudo a ponerle fin”. (Thorndike, 1949 p. 13)

A esta definición puramente empírica se le tacho de tautológica: refuerzo es lo que refuerza como se diría burdamente. Pero Thordike estaba consciente de la fuerza de la crítica y trató de responder a ella dándole un significado independiente, en función de una "reacción de confirmación" en el sistema nervioso central (la conexión neural). Sin embargo, en este aspecto fue más lejos de lo que se puede observar, pasando a una construcción inferencial. El mecanicismo propuesto era muy hipotético, aunque Thorndike pudo reunir un conjunto de pruebas circunstanciales que lo respaldaran. Surgieron varias corrientes psicológicas adoptando los métodos experimentales objetivos de la ciencia natural, pero todas modificando en algún modo el conductismo. Los problemas en debate se centraron en la reducción watsoniana de la conducta a simples conexiones estímulo-respuesta; no se hacía referencia a las necesidades del organismo y sus satisfacciones, ni había oportunidad para encaminarse hacia objetivos o concebir la actividad como un medio de lograr algo para el organismo.

Los nombres que más destacan en este nuevo conductismo transformado son los de Edwrd C Tolman (1886-1959), Clark L Hull (1884-1952) y Burhus F Skinner (1904- )


THORNDIKE Y EL APRENDIZAJE

Las soluciones de Thorndike a los problemas más característicos del aprendizaje, en los siguientes puntos:

1) La capacidad de aprendizaje depende del número de conexiones y su disponibilidad. (tercera ley)

2) La repetición de situaciones (práctica) no modifica por sí sola las conexiones, a menos que dichas conexiones se recompensen. (leyes de efecto y ejercicio)

3) Motivación: la recompensa influye directamente en las conexiones vecinas reforzándolas, pero el castigo carece del efecto debilitador directo correspondiente. Sin embargo, el castigo puede influir indirectamente al llevar al sujeto a elegir otra cosa que tal vez le traiga recompensa. Las conexiones pueden fortalecerse directamente, sin necesidad de tener conciencia o idea de ellas. (ley del efecto y tercera ley).

4) Comprensión: depende de hábitos anteriores. Cuando las situaciones se comprenden de inmediato, es que se produjo transferencia o asimilación.

5) Transferencia: la reacción a las situaciones nuevas se beneficia, en parte, porque son parecidas a antiguas situaciones, y también por un principio de analogía descrito como asimilación.

6) Olvido: sostiene a grandes rasgos la ley del desuso, según la cual el olvido sobreviene con la falta de práctica.


PUNTO CLAVE DE LA LEY DE THORNDIKE ES LA EVIDENCIA DEL ENSAYO Y ERROR COMO VÍA DE RESOLUCIÓN DE PROBLEMAS Y APRENDIZAJE



Los experimentos de Thorndike

Hay dos tipos de “aprendizaje” por condicionamiento:

1) El condicionamiento clásico, pavloviano o respondiente, que consiste en aprender la relación entre sí de varios sucesos del entorno; y

2) El condicionamiento instrumental, que consiste en aprender la relación entre varios eventos contextuales y el comportamiento.

El condicionamiento clásico implica aprender la relación entre ver el pan o sentir su presencia en la boca y su olor, y condicionamiento instrumental es aprender la relación entre la conducta de comer el pan y el gusto del pan.

La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en condiciones similares.

Trabajó con gatos, perros y gallinas encerrándolos en jaulas, donde los animales debían hacer algo para poder salir o recibir comida. Es decir, trabajó con un condicionamiento instrumental (relación entre el comportamiento y sucesos contextuales significativos, como premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba para escapar.

La ley del efecto es simplemente la selección natural en la historia de un organismo singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie, a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama ‘modelamiento’.

Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la base del comportamiento había conexiones simples E-R, las que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede modificar esta jerarquía, haciendo más probable o menos probable una respuesta.

Respecto a sus diferencias, para Pavlov una conexión (un reflejo condicionado) aumenta su fuerza si el estímulo condicionado es contiguo al estímulo incondicionado (esto se llama refuerzo del reflejo condicionado). Para Thorndike, una conexión (hábito) aumenta su fuerza si la respuesta es contigua con un refuerzo al animal del tipo premio o castigo (esto se llama refuerzo del hábito).


Principios en el condicionamiento instrumental

En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y luego recién se premia, o se castiga, etc.

Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio se llama recompensa (retroalimentación positiva) y fue enunciado en la ley del efecto de Thorndike.

Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo inverso a lo anterior (retroalimentación negativa, castigo positivo).

Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a ocurrir. (Es lo que se podría conceptualezar como el refuerzo negativo, a la conducta de escapar del castigo).

Omisión: Si la recompensa o premio está presente pero no se da, la respuesta que lleva esta frustración, decrece su probabilidad de ocurrencia (castigo negativo).


Métodos de medición

Medir en el condicionamiento clásico significa descubrir la respuesta a un estímulo, pero más interesa aquí medir en el condicionamiento instrumental, donde significa detectar con algún aparato los cambios producidos en el comportamiento por el llamado aprendizaje.

Se citan dos medidas para medir la variable dependiente ‘respuesta’: latencia y tasa de respuesta:

Latencia: es el tiempo transcurrido entre una señal y la ocurrencia de la respuesta. Cuando la madre llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la comida, etc.

Tasa de respuesta: es la cantidad de respuestas por unidad de tiempo. Luego de ser llamado a comer (señal) el niño dará más -o menos- mordiscos por unidad de tiempo.


La extinción en el condicionamiento instrumental

En el condicionamiento clásico, extinción significa desaparición de la asociación EC-EI. En el condicionamiento instrumental, significa desaparición de la conexión respuesta-premio (o castigo).

La extinción se define entonces a partir de una correlación cero entre la respuesta y la recompensa, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios, menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de responder, que es lo que pasa normalmente, salvo en tres excepciones.

En efecto, la respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o psuedocondicionamiento. (cuando no se presenta extinción)

a. Falta de discriminación.- El estudiante sigue dando la misma respuesta (por ej sigue estudiando bien) a pesar de que el maestro sigue poniendo mecánicamente la misma nota (mismo premio). Sólo tiende a desaparecer la respuesta cuando ve que el maestro pierde las hojas de exámenes, está distraído, etc.

b. Superstición.- Aunque podamos programar una serie de premios en forma totalmente independiente de la respuesta, se quiera o no los premios establecerán cierta relación con las respuestas. Habrá correlaciones accidentales, aunque tales correlaciones no hayan sido programadas. Un jugador le va mal un día, pero al otro día donde usa otro bate de béisbol, por azar le va bien, entonces decide usar este bate en forma superticiosa.

c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata mueve la palanca para salir y en ese momento le damos adrenalina, que aumenta su actividad. La conexión se establece entre la inyección de adrenalina y mover la palanca, lo cual es un pseudocondicionamiento porque el condicionamiento instrumental “verdadero” sería conectar el mover la palanca con el premio (salir de la jaula), y no aumentar la activdad por sí sola.

Vemos que en los tres casos se producen respuestas que no mantienen relación con el premio, o sea, no está marcada una relación instrumental (respondo “para” obtener un premio). En el primer caso la falta de discriminación se debe a que la falta de una relación instrumental, no puede discriminarse de alguna condición anterior, cuando aquélla existía. En el caso de la superstición es debido a una relación instrumental accidental y temporaria. En el tercer caso la relación no tiene nada que ver con la respuesta, pero el premio por sí mísmo puede causar la respuesta. Todas estas conclusiones valen también para los castigos.



Aprendizaje retardado

Es aquel aprendizaje donde la extinción se presenta “antes” que el condicionamiento, lo que trae como consecuencia que el condicionamiento tarde más en formarse (aprendizaje retardado). Si primero castigamos a un niño, haga lo que haga (extinción de la respuesta, no hará nada), y luego cambiamos la situación y castigamos sólo las conductas malas, entonces tardará mucho más tiempo en superar la primera etapa donde no respondía con ninguna conducta.




Aplicación del modelo

Debe destacarse que los fundamentos filosóficos de E. Thorndike son los planteados por el positivismo, esto es, descripción externa de la conducta.

El ser humano bajo el conexionismo de Thorndike aprenden por: (a) las vías de ensayo y error usualmente (pruebo a ver que pasa, veo el resultado y me quedo con la ejecución que me de el resultado… éste, al resultar es la recompensa. (b) También se aprende por conexión y selección, vale decir, establesco una conexión entre el comportamiento más adecuado y la situación problema y selecciono las respuestas más adecuadas y eficaces (eficaz=da los mejores resultados). (c) También se debe mencionar que considerando la tercera ley de Thorndike, se aprende grabando las respuestas correctas y desechando las correctas.

La ley de la preparación al aprendizaje: Es en la motivación de los estudiantes, en los estados emocionaes de los sujetos, se prepara al estudiante para iniciar el proceso de aprendizaje.

Aplicación de la Ley del ejercicio: Una conexión se fortalce mediante la práctica (ley del uso) y repeticiones. Se debilita cuando la práctica se interrumpe (ley del desuso).

Aplicación de la Ley del efecto al aprendizaje: La fuerza de la conexión aumentará cuando una conexión E-R vaya seguida de un acto satisfactorio (una retroalimentación positiva o recompensa), y en el opuesto, la fuerza de una conexión disminuye cuando ésta va seguida de algo molesto (retroalimentación negativa o castigo).

Thursday, April 12, 2007

REFLEJO CONDICIONADO PSICOLOGÍA DEL APRENDIZAJE UCINF


REFLEJO CONDICIONADO


HISTORIA Y EVOLUCIÓN DEL CONDUCTISMO

Con la publicación en 1913 del artículo de John Watson (1878-1958), nació la nueva escuela conductista que ya anteriormente se había desarrollado a partir de los estudios del comportamiento animal. Los conductistas según un autor contemporáneo (Erandi Curi Bravo Peralta, México, 2006) pensaban que no valía la pena intentar imaginarse lo que la gente ve o siente (como lo hacían los estructuralistas) y como piensan y actúan de una determinada manera en concordancia (como lo hacían los funcionalistas). Más bien se concentraron en lo que realmente podían ver.

En pocas palabras estudiaban solo el comportamiento y hechos observables. Reemplazaron la introspección como método de investigación, por estudios de laboratorio dedicados al condicionamiento, un tipo de aprendizaje. Si se podían determinar el tipo de respuesta que daría una persona o animal frente a un estímulo determinado, opinaban que se conocería lo más importante de la mente.

Con esta orientación la investigación se dirigió hacia la experimentación con animales y el trabajo sobre el aprendizaje. Un punto que sigue manteniendo valor es que los conductistas hacían hincapié en la importancia del ambiente en la formación de la naturaleza humana, conviene destacar sí, que ellos dejaron en menor rango de importancia a la variable de las características hereditarias.

Antes de considerar toda la Reflexología como estudio de la conducta vamos a hacer un pequeño repaso respecto de lo que es considerado un Reflejo, a nivel fisiológico:


Sistema nervioso periférico

Está constituido por los nervios y los ganglios que parten o llegan al sistema nervioso central, permitiendo la comunicación entre este sistema y el medio externo o interno.

Acto reflejo

Respuestas automáticas y rápidas del sistema nervioso a los cambios del medio. Son actos involuntarios que se elaboran y coordinan en la médula espinal, sin que sea necesaria la intervención del cerebro. El conjunto de elementos que intervienen en un acto reflejo constituyen:

El arco reflejo

El arco reflejo más simple está constituido por los siguientes elementos:
• Receptor: estructura que recibe los estímulos.
• Neurona sensitiva: capta la información y lleva el mensaje a la médula.
• Ínter neurona o neurona de asociación: capta la información y lleva el mensaje a la médula.
• Neuronas motoras: llevan el impulso nervioso desde la médula hasta el efector.
• Efector: órgano encargado de efectuar una respuesta.


Acto reflejo.

Sistema nervioso periférico
Constituido por los nervios y los ganglios que parten o llegan al sistema nervioso central, permitiendo la comunicación entre este sistema y el medio externo o interno.








































IVAN PAVLOV Y EL REFLEJO CONDICIONADO


LA PSICOLOGÍA OBJETIVA DE PAVLOV
Ivan Pavlov (1849- 1936)


Iván P. Pavlov era, ante todo, un fisiólogo sin intenciones de establecer una nueva escuela de psicología. Sin negar la importancia de los fenómenos psicológicos, parece haber sido muy escéptico en relación con el modo típico en que los psicólogos se ocupaban de ello. Citando a William James, cuya alusión a la psicología era "no como una ciencia, sino como una esperanza de la ciencia". Citó a Wundt como fundador del así llamado "método experimental en psicología" para Pavlov era evidente no querer utilizar ni dedicar su tiempo a utilizar como método científico; la introspección de los estado subjetivos de conciencia.

Pavlov consideraba que las funciones de la actividad nerviosa especializada se encontraran en el funcionamiento de los hemisferios cerebrales. El aprendizaje, el pensamiento, la solución de problemas y todas las actividades que se consideraban específicamente psicológicas dependían de la integridad de los hemisferios cerebrales.

Considérese el perro, que ha sido desde tiempos remotos el servidor del hombre. Piénsese como puede ser entrenado para que ejecute diversas tareas, vigilar, cazar, etc. Sabemos que esta conducta compleja del animal, que sin duda implica la actividad nerviosa especializada, esta asociada principalmente con los hemisferios cerebrales. Si suprimimos los hemisferios en el perro..., el animal no sólo es incapaz de ejecutar estas tareas, sino que ni siquiera puede cuidarse a sí mismo. Se convierte de hecho en un inválido sin esperanza, y no puede sobrevivir mucho tiempo, si no se le atiende cuidadosamente.

En el hombre también la actividad nerviosa especializada depende de la integridad estructural y funcional de los hemisferios cerebrales. Cuando estas estructuras resultan dañadas y se impide de algún modo su funcionamiento, también el hombre queda inválido, no puede seguir ejecutando sus tareas normales y tiene que ser retirado del mundo del trabajo de los demás. (Pavlov, trad. al inglés de Anrep, 1960, p.1)

Para Pavlov entonces (como para Hebb mucho después), la organización de la conducta era problema de organización de los circuitos nerviosos en los hemisferios cerebrales. Concibió la elucidación de los mecanismos que sirven de base para la organización de la actividad nerviosa especializada como "un campo limitado, con grandes posibilidades para la investigación"

Sin embargo, no veía porvenir en la aplicación de las técnicas típicas introspeccionistas de los psicólogos a los datos subjetivos para solucionar problemas, escribió:

"Se ha hablado de las actividades de los hemisferios como de un tipo especial de actividad psíquica, cuya operación sentimos y aprendemos en nosotros mismos y que, por analogía, suponemos existe en los animales. Es una anomalía que se ha situado al fisiólogo, en posición extremadamente difícil, por una parte, parecería que el estudio de las actividades de cualquier otra parte del organismo deberían encontrarse en el campo de trabajo del fisiólogo, pero por otra parte sucede que ha sido anexada al campo especial de otra ciencia: La psicología".

El punto principal de interés, en relación con el método adoptado por Pavlov, en sus trabajos personales fue que de ningún modo se puso a observar la estructura y la función del sistema nervioso (como hubiese podido esperarse por su interés en la fisiología), se trataba de un estudio especulativo a cerca de la función de los hemisferios por medio de lo que ahora se reconoce como el método distintivo de la psicología objetiva. Es decir, presentaba estimulaciones controladas y registraba las respuestas manifiestas sacando conclusiones respecto al modo como el cerebro funcionaba, con base en estas observaciones. Por lo tanto los estudios de Pavlov sobre el reflejo condicionado analizan el modo de como trabaja el sistema nervioso, para establecer nuevos sistemas de estímulo-respuesta, y parte no del examen de los nervios y de sus conexiones, sino del estudio de la conducta de los animales, en condiciones de estimulación específica en función de lo que se espera que suceda si el sistema nervioso trabaja del modo sugerido. Se trataba, como lo describe Hebb, de un sistema nervioso teórico y su método era un método psicológico aplicado al estudio de los mecanismos fisiológicos que meditaban la conducta del organismo.


LA REFLEXIOLOGÍA RUSA (PAVLOV Y BEJTEREV)

A las influencias estadounidenses hay que añadir el peso de la reflexología rusa, por su insistencia en el estudio objetivo de las relaciones de estímulo respuesta, tal como se manifiesta en los trabajos de Pavlov y Bejterev. El objetivismo ruso y su producto, el reflejo condicionado, hicieron posible la producción de un conductismo totalmente objetivo que, su forma no radical, fue en extremo positivista por la abolición de todos los términos mentalistas y de los métodos introspectivos.

Bejterev (1857-1927) y Pavlov (1849-1936) trabajaron aproximadamente en el mismo periodo y, aunque de temperamento y concepción filosófica diferentes, se ocuparon de las líneas paralelas de la psicofisiología. Sus concepciones científicas estaban profundamente influidas por la filosofía positivista materialista rusa del fin del siglo IX. El resultado fue que su pensamiento y su metodología estaban orientados hacia lo que podríamos describir como "determinismo positivista".

En relación con la psicología esto significa el rechazo de los fenómenos subjetivos y del método introspectivo y su substitución por fenómenos objetivos (conducta manifiesta) y el método de observación pública.

Pavlov resultó ser el más famoso de los dos.
WUNDT
Cabe señalarse que Bejterev estudió la psicología con Wunt y su trabajo en la psicología experimental reflejando la influencia de este. Pero Bejterev justificó su elección sobre la base de que la conducta adaptativa en el hombre y en los animales se lleva a cabo, en su mayor parte, mediante movimientos corporales relacionados con las exigencias del medio ambiente.


Era, pues, un psicólogo de estímulo-respuesta riguroso (E-R), que desarrolló una teoría de la conducta basada en la adquisición de reflejos de asociación y suprimió el término de psicología, substituyéndolo por el de reflexología, la que tipifica su enfoque mecanicista de la conducta.

Pavlov halló un fenómeno conductual con el que dirigió sus investigaciones hacia el "estudio objetivo de los hemisferios cerebrales". Estaba convencido de la naturaleza refleja de la producción de saliva producida al ingerir alimentos y poner sustancias en la boca. El fenómeno tenía todas las características de una respuesta inevitable involuntaria y no aprendida, presente desde el nacimiento y ligada a una estipulación específica. En el transcurso de la investigación observó que la salivación se producía a veces a un estímulo extraño, inicialmente inadecuado, no relacionado en modo alguno con la respuesta natural de las glándulas salivales. Por ejemplo, la simple aparición del auxiliar que normalmente alimentaba al perro era suficiente para producir la salivación. Este fenómeno se demostraría de manera bastante inquietante y algunos espectadores desaprensivos empezaron a chupar naranjas frente a los trompetistas mientras ejecutaban una pieza. Puesto que no había estímulo fisiológico adecuado, no había conexión neutral directa entre la vista y la saliva. Pavlov designó el fenómeno con el nombre de "secreción psíquica" y se dedicó a investigar las condiciones de su ocurrencia.

Dándose cuenta de las posibilidades de acondicionamiento asociativo en un medio ambiente libre, Pavlov empezó a registrar todos los estímulos externos que llegan al organismo en el momento de su reacción refleja (la salivación), registrando al mismo tiempo, de modo sistemático, todos los cambios en la conducta del animal. Pronto llegó a la conclusión de que, prácticamente cualquier estímulo extraño puede llegar a producir la respuesta, y de que el estudio de los principios del condicionamiento necesitaban un control experimental riguroso. Esto significa procurar que el medio ambiente del animal sea tan constante como sea posible, mientras que se investiguen los efectos de un factor o variable. Este tipo de control es la esencia del método experimental. Como resultado de sus observaciones; Pavlov construyó laboratorios experimentales para tener condiciones de medio ambiente constantes, por medios tales como la regulación de la temperatura, la ausencia de sonidos, la presentación automática de los sentidos y la alimentación mecánica. De este modo le fue posible asegurar que sólo estuviesen presentes las influencias que él quería que se operasen. Entonces se dedicó al estudio sistemático de todas las condiciones en las cuales se podían o no establecer reflejos condicionados. El programa de Pavlov, realizado a lo largo de un cuarto de siglo aproximadamente, constituye una excelente ilustración del método científico en acción.

Su teoría del condicionamiento obligó a muchos experimentos y los experimentos a su vez desarrollaron la teoría. Una vez establecido los principios básicos era posible sacar las implicaciones predecir lo que ocurría en un gran número de circunstancias que podían disponerse deliberadamente en el laboratorio.

Veamos que nos expone Pavlov en torno a su “Reflejo condicionado”:

“La denominación “reflejo condicionado” constituye en la actualidad un término fisiológico propio que designa un fenómeno nervioso concreto, cuyo estudio nos conduce a la estructuración de una nueva rama de la fisiología animal: la actividad nerviosa superior, primer capítulo de la fisiología del segmento superior del sistema nervioso central.

Desde hace largo tiempo venían acumulándose observaciones empíricas y científicas. Se sabía que una lesión mecánica o una afección del cerebro –y en particular de los hemisferios cerebrales- provoca trastornos del comportamiento superior muy complejos, de los animales y del hombre. Este comportamiento se llama, de ordinario, actividad psíquica. Pocos serán hoy quienes, en posesión de una formación más médica, duden de que las neurosis y las psicosis van ligadas al debilitamiento o a la desaparición de la función normal del cerebro o a la destrucción en mayor o menor grado del mismo. Llegamos ahora a una cuestión fundamental y obsesionante: ¿Cuál es la relación existente entre el cerebro y la actividad nerviosa superior del hombre y de los animales?; ¿Cómo y por donde empezar su estudio? Parecería lógico que siendo la actividad psíquica el resultado de la actividad fisiológica de una cierta masa cerebral, se emprendiera su estudio desde el punto de vista fisiológico y que se alcanzasen de esta forma los mismo éxitos que con el análisis funcional de otros órganos. Sin embargo, las cosas no sucedieron así. Desde hace mucho tiempo (miles de años) la actividad psíquica viene siendo objeto de estudio de una ciencia especial: la Psicología. Y no deja de ser sorprendente que tan sólo en fecha muy reciente (a partir de 1870) la fisiología haya obtenido, gracias a su método habitual de estimulación provocada, los primeros datos precisos relacionados con cierta función fisiológica de los hemisferios cerebrales: la función motriz. Con el empleo de otro método (el de la destrucción parcial) –también habitual- se han obtenido datos suplementarios sobre la formación de conexiones entre distintas partes del cerebro y los principales receptores del organismo: el ojo, el oído, etc. Estas adquisiciones hicieron concebir grandes esperanzas tanto a los fisiólogos como a los psicólgos acerca de una estrecha colaboración entre sus respectivas ciencias. Los psicólogos solían iniciar sus tratados de psicología con la exposición de la teoría del sistema nervioso central y muy particularmente la de los hemisferios cerebrales (órganos de los sentidos). A su vez los fisiólogos interpretaban de un modo psicológico los resultados obtenidos en la interrupción experimental de la actividad de ciertas zonas hemisféricas en los animales, por analogía con lo que podría vivenciar el hombre en las mismas circunstancias (por ejemplo: la afirmación de Punk de que el animal “ve” pero “no comprende”).
(Pavlov, Fisiología y Psicología, p. 21-23).

“Era necesario hallar un fenómeno psíquico elemental que pudiese ser considerado en su totalidad como un fenómeno puramente fisiológico. Partiendo de él, por un estudio rigurosamente objetivo (como se practica en fisiología) de las condiciones de su aparición, de sus complicaciones y de su desaparición, se obtendría el cuadro fisiológico objetivo y completo de la actividad superior de los animales (del funcionamiento normal del segmento superior del encéfalo) en lugar de los experimentos efectuados hasta entonces y basados en la excitación artificial y la destrucción. Felizmente, desde hacía tiempo, muchos investigadores habían advertido este fenómeno, varios le habían concedido su atención y algunos (en primer lugar debe mencionarse a Thorndike) habían comprendido y a su estudio, pero por una razón desconocida se habían detenido en su mismo principio, sin hacer de sus conocimientos la base de un método fundamental, esencial, de exploración fisiológica sistemática de la actividad nerviosa superior del organismo animal. Este fenómeno es el que ahora designamos bajo el nombre de “Reflejo condicionado”, cuyo persistente estudio justifica completamente la esperanza que acabamos de anunciar.

Citemos dos simples experiencias que cualquiera puede hacer. Vertamos en la boca de un perro una solución débil de cualquier ácido. Normalmente provoca una reacción defensiva: el líquido es rechazado con bruscos movimientos de cabeza, la saliva se derrama abundantemente en la boca (y seguidamente al exterior) diluyendo el ácido y limpiando la mucosa.

La segunda experiencia consiste en someter al perro a la acción repetida de un agente externo cualquiera –de un sonido, por ejemplo- inmediatamente antes de introducirle el ácido en la boca. ¿Qué observaremos? Bastará solamente con repetir este sonido para que se produzca la misma reacción: idénticos movimientos de boca, igual secreción de saliva.

Los dos hechos son igualmente exactos y constantes y deben ser designados con el mismo término fisiológico: Reflejo. (Pavlov, Ibíd. P. 25).

Pavlov menciona que entre ambos reflejos (no condicionado y condicionado) presentan diferencias muy nítidas. Sus centros son distintos: el primer reflejo se produce sin preparación previa y el segundo con un procedimiento especial… cabe saber que significado tiene ello.


Pavlov dice: “Es lícito llamar reflejo incondicionado
[1] a la conexión permanente entre el agente externo con la actividad del organismo determinada por éste y reflejo condicionado a la conexión temporal” (Pavlov, Ibíd. P. 26).


El discernimiento sensorial es la base de la percepción, y la técnica de Pavlov proporcionaba una herramienta poderosa para el estudio de la discriminación. Como ha dicho Tolman, el animal puede "establecer con su conducta" lo que un ser humano establece con palabras y en ello no hay referencia a estados de conciencia internos del sujeto.

El análisis detallado de la mayoría de los experimentos de Pavlov muestra que en una u otra forma dependen de la agudeza y discriminación sensorial. Aun el más simple reflejo de señalización demuestra un condicionamiento a características específicas del estímulo sensorial. El rasgo esencial de la actividad especializada del sistema nervioso consiste en el hecho de que, bajo diferentes condiciones-estímulos, los estímulos de señalización, tal como un zumbido, pueden iniciar reacciones muy diferentes y viceversa, estímulos diferentes pueden provocar la misma reacción.

Según la interpretación de Pavlov los hemisferios cerebrales proporcionan los medios de extender los patrones de conducta, que el sujeto posee desde el nacimiento -en forma de reflejos, al ofrecer una multiplicidad de vías que permiten actuar a un gran número de estímulos como señales temporales e intercambiables, mediante su asociación en el tiempo y espacio- con la operación de los reflejos innatos. Pavlov dio el nombre de señalización a esta función de los hemisferios cerebrales. La característica típica de su experimentación fue unir estímulos de señalización a respuestas reflejas existentes.

Pavlov dio el nombre que ha sido traducido como "reflejo condicionado" al mecanismo fisiológico del aprendizaje asociativo, porque la operación aplicada al organismo era condicionar una respuesta refleja existente a un estímulo anteriormente extraño. Gran parte de la teoría de Pavlov parece ser consonante con sus demostraciones experimentales y puede relacionarse con las respuestas observables y con las condiciones-estímulo de los experimentos. Las condiciones de ocurrencia y los mecanismos hipotéticamente supuestos generaron una amplia variedad de experimentos que confirmaron la hipótesis y establecieron el concepto de condicionamiento como uno de los más importantes en la psicología de la modificación de la conducta, más generalmente conocida como psicología del aprendizaje.

Cuando Pavlov fue más allá de los datos y trato de especificar los detalles fisiológicos del modo como trabajaba el sistema nervioso, se volvió más especulativo, de hecho, no demostró que el modo descrito por él fuere el del sistema. En consecuencia, su teoría fisiológica era débil, puesto que no se podía ni verificar ni rechazar directamente por medios fisiológicos. No era más que un conjunto de sugerencias sobre como podría estar constituido el sistema nervioso. Si producía los resultados por él observados. Se han hecho muchas suposiciones como éstas, y una de las mayores dificultades de todas las teorías fisiológicas del aprendizaje es que no están abiertas a la confirmación directa.

Veamos ahora variaciones del Reflejo condicionado y su aplicación al modelo del estudio de la conducta.



MODELOS EXPERIMENTALES ASOCIADOS
Los experimentos y las Teorías de Pavlov

Las contribuciones de Pavlov no se apoyan tanto en su descubrimiento del reflejo condicionado, y ni si quiera en sus teorías sobre el mismo, como con el cuidado con el que se exploró numerosas relaciones empíricas y, de esta manera se llegó a determinar los parámetros esenciales, así como a sentar las bases y la terminología para los incontables experimentos realizados por otros investigadores y por sus propios colegas.


Reforzamiento, extinción, recuperación espontánea.

La historia de un simple reflejo comienza con su adquisición a través de un reforzamiento repetido; es decir, después de que el estímulo condicionado sigue repetidas veces al estímulo y a la respuesta incondicionados, con intervalos de tiempo adecuados. Pavlov presentó datos obtenidos de perros frecuentemente condicionados, de manera que, por lo común, de esos datos no se puede inferir la adquisición original. pero algunos experimentos mostraban una tendencia a que la curva era sigmoidal (en forma de s), constituida por una porción inicial de poca o ninguna respuesta, luego por un incremento rápido y después por alguna disminución de la tasa de incremento.

Cuando se interpone el reforzamiento y se presenta solo el estímulo condicionado, sin acompañamiento del estímulo incondicionado, la respuesta condicionada disminuye gradualmente y desaparece, fenómeno al que se le denomina extinción experimental. Pavlov reunió numerosas tablitas en las que se describía la citad extinción. Cuando se transcurrió un cierto tiempo, sin mayor repetición de ninguna clase, la salivación condicionada ha reaparecido; a esto se le llama recuperación espontánea.

Generalización y diferenciación.

La primera dificultad que hay que tener en cuenta es la de que un reflejo condicionado producido por un determinado estímulo puede ser provocado también por otros estímulos adventicios, que no tienen que ser por fuerza, muy semejantes al primero.

Para que los reflejos condicionados faciliten la adaptación del ambiente, se necesita un proceso complementario de la generalización; es decir, la diferenciación. Pavlov demostró que la generalización inicial podía demostrarse mediante el método de los contrastes, según el cual un par de estímulos es reforzado regularmente, en tanto que el otro no se refuerza. Al final, después de algunas fluctuaciones, el reflejo condicionado se produce únicamente ante el estímulo positivo (reforzado), y no ante el negativo (no reforzado).



[1] Es importante señalar que Pavlov (traducido del original) se refiere a Reflejo Condicional y Reflejo Incondicional cuando se refiere tanto al reflejo condicionado como al no condicionado (Nota del autor).

Sunday, April 01, 2007

CIENCIA DEFINICION PARA METODOLOGÍA DE LA INVESTIGACIÓN I UNIDAD

CIENCIA


I Unidad: Características de la ciencia y de la investigación Científica.


Qué define una ciencia
Objetivos de una ciencia (que persigue la ciencia, cuales son sus metas)
Ventajas del método científico.
Rol de la teoría en la ciencia
Principios éticos aplicados a la investigación científica.


INTRODUCCION
Desde hace muchos años y hasta nuestros días, han existido muchas controversias o podríamos decir vicisitudes con relación al significado de ciencia, ¿qué es ciencia?, esta ha sido la pregunta durante mucho tiempo. Existen diversos conceptos o ideas sobre esta palabra «ciencia», según el diccionario, ciencia es un conjunto coherente de conocimientos relativos a ciertas categorías de hechos, de objetos o de fenómenos, aunque muchos la definen como un conocimiento racionalizado, sistemático y desinteresado. Otros presentan la ciencia con las siguientes características:
· Conocimiento racional, sistemático, exacto y verificable; ya que entre sus características encontramos conocimiento verificable, podríamos decir que es considerado falible, es decir, que puede fallar, en algún momento puede ser falsa o más bien engañosa.
Mario Bunge en su libro, "La ciencia: su método y su filosofía", expresa lo siguiente:
· "Mientras los animales inferiores solo están en el mundo, el hombre trata de entenderlo y esto da lugar a un cuerpo creciente de ideas llamado ciencia".
Lo que dio lugar a la ciencia fue ese interés del hombre por entender lo que estaba sucediendo, el interés por comprender lo que estaba ocurriendo en todo su alrededor. Si nos ponemos a pensar, nos daremos cuenta que la noción de ciencia siempre nos lleva al saber contemplativo o especulativo.
La ciencia es una relación específica entre un sujeto que conoce y un objeto que es conocido; el sujeto que conoce puede considerarse como el saber humano; mientras que el objeto conocido es lo que está situado fuera de él, todo su entorno (Alberto Polanco, 2006).

El vocablo "ciencia" proviene del latín scientia, que en un sentido escrito significa "saber". Sin embargo, al término saber debe otorgársele un significado más amplio y, así, ciencia seria el "conjunto de lo que se sabe por haberlo aprendido mediante una continuada actividad mental… para tener ciencia hay que abarcar al menos todo un sistema de conocimientos; para tener saber basta con poseer más conocimientos acerca de uno o varios sistemas de los que tiene el vulgo. En una palabra, el saber es la ciencia del hombre que no es ignorante".
Podemos definir a la ciencia, desde un punto de vista totalizado, como un sistema acumulativo, metódico y provisional de conocimientos comportable, producto de unas investigaciones científicas y concernientes a una determinada área de objetos y fenómenos.

CARACTERISTICAS DE LA CIENCIA


Las principales características que posee la ciencia, así concebida, son las siguientes: sistemática, acumulativa, metódica, provisional, comprobable, especializada, abierta y producto de una investigación científica.

La ciencia, es el instrumento por medio del cual el hombre puede constatar o certificar cualquier objeto de estudio o fenómeno natural, de una manera “exacta” utilizando una serie de mecanismos e instrumentos por medio de los cuales se puede obtener resultados certeros, de lo que resulta el llamado el método científico.

"La base y punto de partida del científico es la realidad, que mediante la investigación le permite llegar a la ciencia.". Es decir, que la ciencia implica una relación organizada y paulatina entre la realidad, la investigación y la misma ciencia; en pocas palabras la ciencia implica un proceso.

"La ciencia de ser vista como una de las actividades que el hombre realiza, como un conjunto de acciones encaminadas y dirigidas hacia un determinado fin, que no es otra, que el de obtener un conocimiento verificable sobre los hechos que nos rodean."

Tomando aspectos principales de los anteriores definiciones de la ciencia, puedo establecer, que la ciencia es un proceso sistemático en la que intervienen comoprincipio la teoría y las normas, establecidas a través del método científico.

DEFINICIONES APRENDIZAJE MATERIA I UNIDAD

APRENDIZAJE


Diferentes definiciones de aprendizaje nos hacen ver que el hincapié se va trasladando desde los procesos internos a conductas absolutas… no quedan fuera los teóricos que asocian solamente el aprendizaje al ámbito pedagógico o académico… el aprendizaje es un proceso mucho más profundo y amplio que un solo sector de funcionamiento vital.


Las experiencias, modifican a las personas. Los intercambios con el medio, modifican las conductas. Por lo tanto, las conductas se darán en función de las experiencias del individuo con el medio. Dichos aprendizajes, permiten cambios en la forma de pensar, de sentir, de percibir las cosas, producto de los cambios que se producen en el SN. Por lo tanto los aprendizajes nos permitirán adaptarnos al entorno, responder a los cambios y responder a las acciones que dichos cambios producen (Patricia Duce).


Proceso que es proporcionado por la experiencia del individuo y mediante ella se van adquiriendo habilidades, destrezas y conocimientos que son de utilidad en todo desarrollo de la persona. (Diana Gabriela Saldivar Morales)

Es todo aquel conocimiento que se va adquiriendo a través de las experiencias de la vida cotidiana, en la cual el alumno se apropia de los conocimientos que cree convenientes para su aprendizaje. (Margarita Méndez González)

Proceso a través del cual se adquieren habilidades, destrezas, conocimientos. Como resultado de la experiencia, la instrucción o la observación. (Isabel García)

Proceso por medio del cual la persona se apropia del conocimiento, en sus distintas dimensiones: conceptos, procedimientos, actitudes y valores. (Rafael Ángel Pérez).


La mayoría de la gente asocia automáticamente el aprendizaje con la adquisición de una conducta nueva. Es decir, el aprendizaje se identifica por la aparición de una nueva respuesta en el repertorio del organismo. Tal es el caso de la gente que aprende a leer, a montar en bicicleta o a tocar un instrumento. Sin embargo, el cambio de conducta implicado en el aprendizaje puede también consistir en la disminución o pérdida de una conducta del repertorio del organismo. Por ejemplo, un niño puede aprender a no cruzar la calle cuando está el semáforo en rojo, a no coger comida del plato de otro, o a no hacer ruido ni chillar cuando alguien está intentando echarse una siesta. Aprender a contener respuestas es tan importante como aprender a dar respuestas, si no más.

A menudo pensamos en el aprendizaje como un proceso complejo que requiere una práctica especializada, y que da lugar a formas de conductas sofisticadas y llamativas. Hay muchos ejemplos de este tipo de aprendizaje. Aprender cálculo, patinaje artístico, natación de competición o una lengua extranjera conlleva una extensa práctica especializada y capacita a la persona para actuar de una forma que resulta sorprendente para todos aquellos que carecen de esas habilidades.

Pero hay sistemas de respuestas mucho más simples en los que el aprendizaje también está involucrado. Los investigadores del aprendizaje han dedicado gran parte de su esfuerzo a estudiar los mecanismos de aprendizaje de sistemas de respuesta simples, con la esperanza de que el conocimiento obtenido de tales investigaciones les lleve a la formulación de principios generales de aprendizaje.

También se espera que la investigación de sistemas de respuesta simples proporcione la información básica necesaria para el estudio de formas más complejas de aprendizaje.

No existe una definición del aprendizaje aceptada universalmente. Sin embargo, muchos aspectos esenciales del concepto de aprendizaje vienen recogidos en la siguiente frase:

El aprendizaje es un cambio duradero en los mecanismos de- conducta, resultado de la experiencia con los acontecimientos ambientales. Son importantes varios aspectos de esta definición.

Primero, se dice que el aprendizaje es un cambio en los mecanismos de la conducta, no un cambio en la conducta misma. ¿Por qué definimos el aprendizaje como un cambio en los mecanismos de la conducta? La razón principal es que la conducta está determinada por muchos factores además del aprendizaje. Piénsese, por ejemplo, en el acto de comer. Uno come algo según el hambre que tenga, el esfuerzo que haya que realizar para conseguir la comida, lo que le guste la comida, y si sabe o no dónde está. De todos estos factores sólo el último implica necesariamente aprendizaje. Este ejemplo ilustra la importancia de la distinción entre el aprendizaje y la actuación.

Por actuación nos referimos a las acciones de un organismo en un momento concreto. Que un organismo haga una cosa u otra (su actuación) depende de muchas cosas. Incluso la realización de una respuesta simple, como empujar un carrito de la compra por un pasillo, está determinada por multitud de factores.

Que uno dé o no esta respuesta depende de que haya un carrito disponible, de la motivación que uno tenga para usar un carrito, de la habilidad para sujetar el carrito, de la capacidad física para empujarlo, de la capacidad para ver lo que hay delante del carro, y del conocimiento aprendido sobre cómo funcionan los carritos de la compra. La actuación está determinada por la oportunidad, la motivación y las capacidades sensoriales y motoras, además de por el aprendizaje. Por tanto, no puede considerarse automáticamente que un cambio en la actuación refleje aprendizaje.

La definición enunciada arriba identifica el aprendizaje como un cambio en los mecanismos de conducta para hacer hincapié en la distinción entre aprendizaje y actuación. Sin embargo, los investigadores no pueden observar directamente estos mecanismos. Lo que ocurre es que a partir de cambios en la conducta se infiere un cambio en los mecanismos de conducta. Así pues, la conducta de un organismo (su actuación) se usa para proporcionar pruebas de que existe aprendizaje. Sin embargo, debido a que la actuación está determinada por muchos factores aparte del aprendizaje, se debe tener mucho cuidado al decidir si un aspecto concreto de la actuación refleja o no refleja aprendizaje. A veces no se pueden tener pruebas de que ha habido aprendizaje hasta que se establecen procedimientos con tests especiales. Por ejemplo, los niños aprenden mucho sobre la conducción de un coche simplemente viendo a otros conducir, pero este aprendizaje no se hace evidente hasta que se les permite ponerse al volante. En otros casos (véase más abajo) se observa en seguida un cambio en la conducta pero no puede atribuirse al aprendizaje, bien porque no dura lo suficiente, bien porque no es producto de la experiencia con los acontecimientos ambientales.


"Los animales y el hombre poseen una característica esencial: son capaces de modificar su comportamiento en virtud de la experiencia previa que han adquirido de una u otra manera. Esta modificación sistemática de la conducta de un organismo se llama 'aprendizaje'. Bajo este título se agrupan infinidad de manifestaciones objetivas que se extienden desde el reflejo condicionado hasta la educación superior".


Para los conductistas, gran parte de la conducta de los seres humanos es aprendida y depende de las contingencias ambientales. Explican el aprendizaje en forma descriptiva como un cambio estable en la conducta, de lo cual se desprende que el interés es conseguir que el alumno adquiera o aprenda un repertorio de conductas a través, principalmente, del llamado reforzamiento de la conducta.


Para los humanistas, y en particular para K. Rogers, el ser humano tiene una capacidad innata para aprender, y este aprendizaje llega a ser significativo cuando involucra a la persona en su totalidad (procesos afectivos y cognitivos) y se desarrolla en forma experiencial (que se entreteja con la personalidad del alumno). Para lograr esto, el aprendizaje debe ser autoiniciado, y debe ser visto por el alumno como algo importante para su desarrollo personal.


“Modificación más o menos permanente en la conducta o capacidades de un organismo, como resultado de su experiencia en el entorno”.

El aprendizaje conduce a cambios de larga duración en el comportamiento potencial. Este concepto se refiere al comportamiento posible (no necesariamente actual) de un individuo en una situación dada para poder alcanzar una meta. Sin embargo, el solo potencial no es suficiente: el aprendizaje necesita ser reforzado para que perdure.

Los cambios de corto plazo en el comportamiento potencial, como la fatiga, no son aprendizaje. Asimismo, algunos cambios de largo plazo en el comportamiento son resultado de la edad y el desarrollo, no del aprendizaje.




BIBLIOGRAFÍA

http://www.psicopedagogia.com/definicion/aprendizaje rescatada, marzo 2007

Texto extraído de libro "Principios de aprendizaje y conducta" de Michael Domjan y Barbara Burhard, publicado por la editorial Debate, Madrid (España) 1996, págs 32-34

http://www.definicion.org/aprendizaje rescatada marzo 2007-03-26

http://www.wikilearning.com/definicion_de_aprendizaje-wkccp-7321-1.htm Autor: M. Domjan y B. Burkhard - 22/Noviembre/2005

Hernández Rojas G., Paradigmas en psicología de la educación, Buenos Aires, Paidós, 1998, pág. 95.

Battro A., "Manual práctico de psicología moderna", Buenos Aires, Emecé, 1970.

Hernández Rojas G., Paradigmas en psicología de la educación, Buenos Aires, Paidós, 1998, pág. 111.

Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 614.
http://www.espaciologopedico.com/recursos/glosariodet.php?Id=156