Thursday, May 10, 2007

CONDICIONAMIENTO OPERANTE II

En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los Refuerzos, explicando los planteamientos de su autor y descubridor, el Sr. B.F Skinner, considerado como uno de los psicólogos más influyentes dentro de las teorías del aprendizaje.
Skinner, según lo escrito en su libro “Más allá de la libertad y de la dignidad” de 1971, tendiente a erradicar en nombre de la ciencia determinista y naturalista, la concepción tradicional de occidente, que ve en el hombre a un ser libre y responsable; afirma que la lucha del hombre por su libertad personal, no se debe a su inalienable voluntad, sino a una serie de procesos conductuales, característicos del organismo humano, cuyo principal efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente; recondicionando adecuadamente estos procesos conductuales. Así, la conducta no es ningún proceso interno, sino que es la acción del organismo ante las condiciones del mundo exterior, por esto considera Skinner que “no existe el hombre autónomo”.

La conducta, objeto de estudio de Skinner, también hace posible relacionar al hombre con una vida social y armónica que proporciona al individuo seguridad y felicidad, por lo que él considera a la Libertad, no una ventaja sino más bien una amenaza.

Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante; proceso mediante el cual se aumenta o disminuye la probabilidad de dar una respuesta, designando Skinner a esto como Reforzamientos, el cual consiste en un Estimulo Reforzante, que incrementa la posibilidad de un comportamiento, pudiendo ser este negativo o positivo, dependiendo de la relación que el individuo tenga con el medio ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos.

En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores que influyen en ellos, también sus programas de reforzamiento que pueden ser parciales o continuos.

Skinner también plantea que toda la conducta humana es producto de reforzamientos, atribuyendo una importancia fundamental al aprendizaje aplicado a la educación y a la vida diaria.

Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de los programas más significativos de reforzamiento, clarificando lo que Skinner planteaba al decir que el profesor es un constructor de conductas. Finalmente se realizaran observaciones a las objeciones y desacuerdos de esta teoría y se darán a conocer algunas diferencias con otras teorías.


DESCRIPCIÓN DE LA TEORÍA

Primero que todo, el condicionamiento operante, análisis experimental de la conducta (AEC) desarrollado por el psicólogo neoconductista B.F Skinner, se puede definir de la siguiente forma:

Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el medio ambiente, basados en un método experimental. Es decir, que ante un estimulo, se produce una respuesta, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se fortalezca.





Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un Estímulo discriminativo y a otro llamado estimulo reforzador:

Es siempre una relación de contingencia.


Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como influyentes en la conducta.

Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por este psicólogo de Pennsylvania, llamado la “Caja de Skinner”.

Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales se encontraban en el interior de una caja de simple fabricación, que tenia por dentro una palanca llamada “manipolandum”, la cual podía ser bajada con una liguera presión, y que al ser accionada provocaría que el alimento contenido en un tazón al interior de esta cayera.

En un principio el “animalito” , que ha sido privado de alimento durante unas horas, se desplazará de un lado a otro, apoyando su cuerpo en los costados de la caja, picoteando y rasguñando la pared transparente, etc. En algún momento, y solamente por “casualidad”, la palanca será accionada por la patita o pico del animalito, provocando que el alimento caiga para en ese momento comer el alimento. Este proceso se repetirá varias veces voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es retribuida con una recompensa, por lo cual esta acción se ira repitiendo con mayor frecuencia, dejando de lado a aquellas en la que no es recompensado.

Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un momento era accidental.

Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO OPERANTE.


CONCEPTUALIZACIÓN DE LA TEORÍA

La palabra “Refuerzo” es piedra angular en el planteamiento de Skinner, y este puede ser definido como el estimulo que al aumentar o desaparecer, aumenta la posibilidad de una respuesta. Entonces una serie de estas acciones refuerzan la conducta en un sentido positivo o negativo.

Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios (condicionados) y Generalizados:

REFORZADORES PRIMARIOS: Son aquellos que no dependen de la historia del sujeto, sino de las características biológicas; son comunes a todos los sujetos de la especie y tienen un carácter altamente adaptativo, guardando relación directa con la supervivencia del sujeto y la especie.

REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen relación directa con la supervivencia y dependen, más bien, de la historia individual del sujeto.

REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras más son presentados no reducen su efectividad, sino que, se mantiene. Son independientes de la intensidad o frecuencia que tienen y tienen una relación estrecha con la historia individual.





Los dos tipos de refuerzos básicos en la teoría de Skinner son:

· Refuerzo positivo
· Refuerzo negativo

REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente la probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo que esa respuesta aumente o se repita en el futuro. Unos ejemplos de esto seria:

-Un alumno al finalizar su disertación, obtiene las felicitaciones del profesor y los aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos positivos, ya al resultar gratificante para el alumno este refuerzo, su respuesta será estudiar con más dedicación aun, para el próximo trabajo.

-Si María le dice a Juan que lo quiere mucho más después de haberle regalado chocolates, la consecuencia de la conducta de Juan, será tan gratificante para él, que su conducta se verá reforzada a que aumente o se repita en el futuro.


El “Refuerzo positivo” incorpora una conducta nueva, aumenta una existente o elimina una conducta inapropiada incompatible.

Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser aplicadas en todas las situaciones, por lo que el reforzador a seleccionar, deberá tener una capacidad de refuerzo que se haya demostrado para el individuo concreto bajo condiciones específicas.

Es importante aclarar que, la expresión “Positivo”, no tiene una connotación ética, valórica o moral.

REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una conducta, como consecuencia de la omisión o retirada de un estimulo.

A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la respuesta o conducta, y como consecuencia aumenta dicha conducta.

Es importante señalar que la omisión del estimulo, no basta para que se refuerce negativamente la conducta, sino que será fundamental que a través de la respuesta se elimine dicho estimulo de un entorno, es decir, la desaparición de la contingencia es consecuencia de la conducta.

Ejemplos de reforzamiento negativo seria:

-estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de las pruebas de repetición. De manera clara se entiende que el refuerzo exime de la prueba, y la diferencia con el refuerzo positivo, es que aquí se esta eliminando (eximir de la prueba) algo del entorno.

-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga desaparecer esa molestia. Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es eliminado tomando un analgésico.


En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina un estímulo aversivo que le antecede, por consiguiente se da un incremento a la conducta que causo la eliminación o desaparición de este estímulo.
Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a personas a realizar cosas que le resultan difíciles como:

-Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre un par de patines, monte en motocicleta o se interne en una caverna, pero el ridículo ante sus amigos, lo que ellos pueden decirle a manera de insulto o evocando a la cobardía, puede ser lo suficientemente aversivo para que el sujeto desee eliminarlo y acepte el reto y termine realizando la conducta negada

El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:

· Condicionamiento de Escape
· Condicionamiento de Evitación


CONDICIONAMIENTO DE ESCAPE:

Es cuando se aplica un castigo, pero este se termina cuando se produce una conducta, es decir, es cuando se aprende a dar una respuesta que elimina o hace desaparecer una situación que resulta desagradable. Ejemplo :

-Los niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la estufa o cocina, las deben alejar rápidamente para evitar quemarse.


CONDICIONAMIENTO DE EVITACIÓN:

Es cuando, se eliminan o reducen estímulos que anteriormente han estado seguidos de estímulos aversivos. La diferencia con el condicionamiento de escape, es que aquí el organismo no recibe el estimulo aversivo, en cambio en el condicionamiento de escape el organismo termina o reduce el estímulo aversivo a través de la respuesta, que vera aumentada su frecuencia. Un ejemplo de condicionamiento de evitación seria:

-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una carretera permitida a 100k/h será detenido por carabineros y se le cursará el parte correspondiente, por lo cual, a través de su conducta evita ese estímulo aversivo.

Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la Extinción de los refuerzos.


CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador inmediatamente después de una conducta, disminuyendo o eliminando la probabilidad de repetición de dicha conducta. Ejemplo :

-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la clase por motivos de indisciplina. Aquí se ejemplifica correctamente lo que dice la definición, ya que se aplica un Castigo (estimulo aversivo) inmediatamente después de una conducta.

-La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual, es Castigado a 5 años de cárcel.

Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la posibilidad que el individuo, según las condiciones del ambiente (sociedad, rehabilitación, necesidades,etc.) vuelva a reincidir en su conducta.

EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el reforzamiento que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo que la hace existir. Ejemplos:

-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de guitarra debido al fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía la conducta la conducta del joven se ha “terminado”, por lo cual la conducta dejara de producirse.

-En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron atención a ella y disminuyó por debajo del nivel usual cuando la pasaron por alto y prestaron su atención a los niños que no se estaban portando mal

A pesar de que el efecto de disminución o desaparición de la conducta es igual en el procedimiento de Castigo como en el de Extinción, se diferencian en que en el primero no se rompe el proceso de contingencia, cosa que si sucede en el otro.

Otros procedimientos importantes desde el punto de vista del control de las conductas son:

§ La discriminación
§ La generalización


LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante la presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia de un Estimulo discriminatorio hace posible que una respuesta dada, sea reforzada, pero importante es señalar que para que esto ocurra, debe existir por lo menos un Estimulo delta, que es en cuya presencia no existe refuerzo y funciona para suprimir o inhibir la conducta. Así, si un Estimulo discriminatorio, logra reforzar la conducta, los demás estímulos serán Estímulos delta. Un ejemplo de el Procedimiento de discriminación es :
-En el metro se señalan a través de imágenes los asientos que son de preferencia para minusválidos, embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo discriminatorio, ya que discriminan una respuesta de ocupar un asiento destinado para otras personas.

LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la mayor cantidad de estímulos posibles. Ejemplo :

-se ha enseñado a un niño a decir “buenos días” a su padre, para lograr que esa conducta se reproduzca con otros adultos, es decir, se generalice ante la mayor cantidad de estímulos denominados “adultos”, basta con reforzar sistemáticamente la respuesta “buenos días”, cada vez que se emita ante cualquier adulto.

Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una generalización y viceversa.


FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO

Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino que además se deberán tomar en consideración importantes factores como: Inmediatez, Cantidad de refuerzo, condiciones, probación y exposición, entre otros, que ayudaran a acrecentar la efectividad del refuerzo.


INMEDIATEZ DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un principio fundamental sobre el control de la conducta es que un refuerzo inmediato es más efectivo que el retrasado. Por ejemplo:
-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo reforzar esa conducta con un gracias de inmediato, que con retraso, ya que de lo contrario, el organismo tendría el tiempo para producir otra conducta, entre el lapso de la conducta original y el reforzamiento retardado, por lo que el reforzamiento seria en la conducta derivada de otra.


CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe suministrar depende de varios factores: el tipo de reforzador usado, las condiciones de privación y el esfuerzo necesario para dar la respuesta. Se debe tener en cuenta los conceptos de:

§ Privación
§ Saciedad

Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su acceso, a favor de de la efectividad del refuerzo. Por ejemplo:

-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a mostrar, este refuerzo será más efectivo.

Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad inapropiada del refuerzo termina por saciar al organismo. La supresión de la conducta, es por causa del reforzador que la mantiene. Ejemplo :

-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por saciarse y acabará cambiando alguna conducta de obediencia que haya tenido. Así una buena opción es proporcionarle tantos cigarrillos para que fume, que luego termine mareado y con náuseas y por no querer saber nada a cerca de los mismos.


CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato, los individuos pueden identificar con mayor facilidad las conductas que conducen al reforzamiento y las que no. Otro factor que puede facilitar la discriminación es la especificación clara de las condiciones ambientales, o estímulos, bajo las cuales se suministrará el reforzamiento.

PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de las numerosas respuestas, será reforzada.

Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos diseñados a moldear, incrementar, reducir o mantener una conducta.

PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el sujeto al cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada situación, el refuerzo que podría ser aplicado resultaría desconocido.

EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un refuerzo, como en el caso de la probación, Entonces, se procede a exponerlo a las condiciones más parecidas que se pueda a aquellas en las cuales se utiliza el reforzamiento. Incluso si es necesario ocupar a otra persona a la cual se le ha aplicado el refuerzo.




PROGRAMAS DE REFORZAMIENTO
Los programas de reforzamiento son “reglas”, que determinan cuando seguirá la entrega o presentación contingente de un reforzador a la presentación de una respuesta o conducta. Existen diferentes tipos de programas de reforzamiento, de los cuales, definiremos los más significativos.


PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa, cuando el refuerzo es manifestado en cada momento de ser producida una respuesta. Ejemplo:

-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor pronuncia su nombre dándole la palabra.

PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este reforzamiento se da cuando son reforzadas solo algunas de las conductas emitidas por el organismo, no todas. En la vida cotidiana, en el colegio, universidad, etc., se dan estos tipos de programas. Ejemplo:

-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta no ha sido reforzada; no queriendo decir con ello que no ocurra la próxima vez.

Según los experimentos realizados por Skinner, los programas de reforzamiento parcial, son bastante estables y mantienen la conducta por periodos más largos que los programas de reforzamiento continuo.

Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en cuenta el número
de respuestas o también el tiempo que transcurre. Por lo tanto hay que tomar en consideración:

-Programa de razón
-Programa de intervalo

PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de presentar un reforzador, es decir, el reforzador depende de la conducta del organismo en base al número de respuestas de este.
Este programa se subdivide en dos:

Razón (tasa) fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un determinado numero de repuestas que se ha establecido de antemano. Ejemplo :

-Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón fija será 10.

Razón (tasa) variable: los reforzamientos ocurren después de una cantidad variable de respuestas, no después de un número fijos. Esta cantidad difieren de reforzamiento en reforzamiento. Ejemplo :
-
Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad variable, que se le dará el reforzamiento (dar el helado) cuando venda el primer helado, el segundo reforzamiento le será dado cuando venda el tercer helado, el tercero cuando venda el cuarto y el cuarto cuando venda ocho. Así el valor de la razón variable se designa por el promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el promedio cuatro

PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo transcurrido antes de proporcionar el reforzador.
Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la primera respuesta que se obtiene luego de transcurrido el tiempo previsto; es decir, el reforzamiento, cualquiera que sea el programa seguido (de razón o de intervalo) siempre debe ser consecuencia de una respuesta.

Existen dos tipos de programas de intervalo:

Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de este, se refuerza la primera respuesta que se emita.

Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 2-4-7; y en donde se refuerza la primera conducta transcurrido el tiempo. Ejemplo :
-Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros minutos, luego se refuerza la primera conducta pasados cuatro minutos y finalmente se reforzará la primera conducta pasados siete minutos. El promedio de estos será el valor del intervalo variable



Otros programas de reforzamiento:

PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas independientes, los cuales se presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo característico. Los programas múltiples son programas combinados, en los que se agrega un estímulo discriminativo característico.

PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A diferencia del múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el sujeto puede emitir dos respuestas distintas que se refuerzan simultáneamente por programas independientes, pero paralelos en el tiempo. Los reforzamientos previstos en cada programa son independientes entre sí. Este tipo de programa se utiliza cuando se desea reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social.

PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece una proporción entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo general, estas medidas están dadas por la frecuencia del reforzamiento, pero también pueden seguir propiedades tales como la magnitud de la respuesta y la magnitud del reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento recibe, hay una proporción directa entre conducta y reforzamiento. La relación también puede ser inversa; dependiendo de los propósitos del programa. Es adecuado permitir al sujeto establecer el criterio de reforzamiento a través de la propia emisión de su conducta.

Por ejemplo: si un niño realiza dos ejercicios de matemáticas, recibe un caramelo; si realiza cuatro, recibe dos caramelos, etc.








CUESTIONAMIENTOS A LA TEORÍA DE SKINNER

Entre las críticas que se hacen a la teoría de Skinner, están aquellas que la acusan de hacer una comparación abusiva, al tratar de explicar los procesos de la vida real en experimentos de laboratorio con animalitos. Uno de sus principales detractores en relación a esto es Chomsky, ante lo cual Skinner responde que estos ataques no eran más que una manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales tiene lugar dicha conducta.

Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los resultados de sus experimentos, sin necesidad de generalizar.

Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido número de sujetos que utilizan en las experiencias. Para los críticos (generalmente ajenos al que hacer experimental), parece inconcebible, e incluso inexplicable, la tendencia conductista a la utilización del caso único, un lugar de emplear grandes muestras representativas con el fin de poder justificar “quizás” convenientemente el generalizar los resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino que son resultados de estudios científicos comprobados.

Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como fue la realizada por el sociólogo Andreski: “en contraste a tal pretensión (hacer ciencia) la más grande realización de Skinner, en el dominio de la tecnología de la conducta ha sido la de amaestrar a dos palomas para que lancen una pelota de ping- pong hacia adelante y hacia atrás. Este logro exige, probablemente, mucha perseverancia e imaginación, pero justifica apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de animales, aunque no sea evidente a simple vista que valla más allá de logros de los amaestradores del circo”.

En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana, reduciéndola a un conjunto de mecanismos que no hacen sino asemejarla a una maquina o los animales. Consideran, además, que las actividades propias del ser humano es decir, justamente aquellas que lo diferencian de lo animal (virtud, creatividad, altruismo, imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin valor intrínseco alguno.


DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL CONDICIONAMIENTO CLÁSICO

La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es una forma de aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el condicionamiento operante (teoría de los refuerzos) el aprendizaje es un estimulo-respuesta-se fija la respuesta.

Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o incondicionada será siempre la misma, a diferencia del operante, en donde las respuestas suelen ser distintas.

También en el condicionamiento clásico se evidencia una ley de continuidad, mientras que en el otro se implica además una ley de efecto, es decir, la concreción de una respuesta.

Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos. Uno de estas similitudes seria que según los estudios realizados hasta ahora, tanto en el condicionamiento operante como en el clásico una respuesta que se ha extinguido, recupera su fuerza con el descanso.

También en ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca una respuesta condicionada.


APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN

Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta humana es manipulable, logro que su teoría fuera introducida en la educación para el proceso enseñanza-aprendizaje.

Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para ellos el comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente, en la cual todo ese comportamiento es aprendido. Por lo tanto cualquier problema de conducta es el reflejo de los refuerzos que dicho comportamiento ha tenido.

Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros deben proveer a los educandos un ambiente adecuado para el refuerzo de las conductas deseadas. Por consiguiente las conductas no deseadas que el alumno tenga en el aula, pueden ser modificadas utilizando los principios básicos del control de estas explicados anteriormente en el presente trabajo.

Las posiciones más comunes adoptadas por los profesores en los establecimientos, son las siguientes:
· Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para aprender y cumplir con los requisitos escolares.
· Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para todos los estudiantes por igual.
· El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y detallado.
Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento serian:

· Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta reemplazarla por completo.
· Debilitar las conductas no deseadas eliminando los refuerzos de estas.
· La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.
· Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a tomar otra respuesta a dicho estimulo.
· Usando castigos para debilitar a conducta no deseada.

Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje programado. En donde la materia a impartir, se separa en partes simples y se empieza por ejemplo; preguntando cosas en que el alumno tiene conocimiento, ante cuya respuesta (conducta) se le refuerza con felicitaciones o puntaje para el examen final. Así de a poco y ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo preguntas con un mayor grado de dificultad, reforzando las correctas.


CONCLUSIONES

La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter motivador para dirigirla. Son fundamentales en el aprendizaje coonductual sabiendo utilizarlos, para lograr una respuesta esperada de los alumnos.

Así, se comprueba que el comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc.
Para el estudiante de pedagogía y futuro profesor, es indispensable manejar este tema, como estrategia para el mejor logro de la educación, reforzar en los educandos sus valores, metas, intereses; ayudando también a tener una buena relación.

Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos dejan experiencias en nuestras relaciones, para en otra ocasión aprender de ellos.

El organismo siempre esta en movimiento o en proceso de operar. Se encuentra con un determinado tipo de estímulo, llamado estimulo reforzador.

El modelo de Skinner acerca de los refuerzos, explica que cuando una respuesta otorga satisfacción o placer al ejecutante, esta tiene más posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja.

Skinner como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de conducta, aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan sus obras que se refieren a los estímulos y los refuerzos.

A pesar de la validez en las críticas que se le realizan al conductismo operante, como el reduccionismo y simplismo, ha sido innegable el aporte que ha tenido este, a la vida del hombre.
Ayudándole en todo tipo áreas. El saber controlar bien una conducta a través de los refuerzos ayudara a las personas a vivir en un mundo más placentero, ya que se podrán por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como inadecuadas.

Sin embargo, para que lo anterior sea efectivo, tenemos que tener un total conocimiento de esta teoría, de manera que podamos conocer el real alcance que tienen los estímulos reforzadores en el control de la conducta, conociendo su potencial. Como decía Skinner, toda la vida esta plagada de refuerzos, sin embargo el común de la gente, ante el desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos de la forma más conveniente. Es por eso, que los profesores pilares fundamentales en el proceso de enseñanza - aprendizaje, deben tener un conocimiento cabal de la teoría operante, para poder controlar la infinidad de conductas que operan en los alumnos, en post de una sociedad mejor.



BIBLIOGRAFÍA
· Psicología: un aporte a la Educación. SALAZAR, Dayanira (compilación).Editor universidad Arturo Prat. 1° Edición. Santiago. Chile. 2003.
· Sitio web http://www.loshorcones.org.mx/glosario.html
· Sitio web http://www.euskalnet.net/txiribi/terapias.htm
· Sitio web http://www.cuc.udg.mx/psicologia/skinner.html
· Sitio-web-http://www.google.cl/search?q=cache:Iv-pZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_operante.pdf+descripcion+del+condicionamiento+operante&hl=es&ie=UTF-8
· El consultor psicopedagógico en la escuela. DINMEYER, Don – CARLSON, Jon. Editorial Guadalupe. Buenos Aires. Argentina. 1973.






Sunday, May 06, 2007

CONDICIONAMIENTO OPERANTE I



EL CONDICIONAMIENTO OPERANTE

CONDUCTA OPERANTE:

Propósito y Conducta

Debido a los efectos que produce el ambiente la conducta, se asigna una cualidad o propiedad de propositividad a la conducta, a fin de traer al presente efectivo “lo que hace el organismo emitir la conducta” o bien, se dice que el organismo se comporta de una manera determinada debido a que tiene la intención de lograr, o que espera obtener, un efecto dado; o se caracteriza a la conducta como poseyendo utilidad en tanto maximice o minimice ciertos efectos.

La ley del efecto de Thorndike, dio el paso en esa dirección: la ocurrencia aproximadamente simultánea de una respuesta, y ciertos eventos ambientales (comúnmente generados por ella), cambian las respuestas del organismo, aumentando la probabilidad de que ocurran de nuevo las respuestas de la misma especie. En sí misma, la respuesta ha pasado a la historia y no es alterada. Thorndike hizo lo posible por incluir los efectos de la acción entre las causas de la acción futura sin usar conceptos como propósitos, intención, expectativa, utilidad.

La ley del efecto agregó una nueva clase de variables importantes, de las que podía demostrarse que la conducta era una función. Los aparatos utilizados para el estudio de la conducta durante el siguiente cuarto de siglo continuaron enfatizando una relación de intencionalidad entre la conducta y sus consecuencias.

Una vez que el procedimiento se hizo común, no resultó difícil diseñar un aparato en el cual una respuesta produjese alimento de una manera similar.

Uno de los colaboradores de Pavlov –Ivanov Esmoloensky- estudió una disposición experimental análoga a la de Thorndike. A pesar de saber como o porqué siguen a la conducta, las consecuencias de una acción cambian al organismo. La conexión no necesita ser funcional u orgánica, como en realidad no lo fue en el experimento de Thorndike.

Ventajas y Prácticas.

Los primeros aparatos no fueron diseñados para eliminar las representaciones espaciales de la positividad; sin embargo, así lo hicieron, y este hecho tuvo consecuencias de gran alcance. El experimentador podía elegir una respuesta que era convenientemente registrada, o una que el organismo pudiera ejecutar sin fuerza por tiempos prolongados.

Una respuesta que sólo se relaciona de modo temporal con sus consecuencias, también podría estudiarse convenientemente mediante el empleo de equipos automáticos. La disponibilidad del equipo automático ha ayudado a realizar experimentos y ha facilitó el estudio de relaciones entre respuestas y consecuencias tan complejas como para disponerlas en forma manual o inspeccionarlas ocularmente.

Otro resultado práctico fue terminológico. El concepto de Reflejo no hacía referencia a las consecuencias de una respuesta. Con frecuencia los reflejos eran obviamente protectores de daño; pero este era un efecto primordialmente filogenético. El término Operante se estableció para diferenciar los Reflejos de las Respuestas que operan directamente en el ambiente.

El término alternativo, Instrumental, sugiere el uso de instrumentos. Es decir, que una rata usa la palanca para obtener alimento, tiene matices propositivos y en los casos donde no hay indicios que puedan identificar a algo como un instrumento, frecuentemente se dice que el organismo usa la respuesta para obtener un efecto.

Otro cambio fue de Recompensa a Refuerzo. Recompensar sugiere compensación por comportarse de una manera determinada, frecuentemente como en una especie de contrato; el Término Refuerzo, en su sentido etimológico, simplemente señala EL FORTALECIMIENTO DE UNA RESPUESTA.

La Taza de respuesta como un dato

Un resultado importante del estudio de una relación arbitraria entre una respuesta y sus consecuencias, además de la simplificación en los procesos del que se llegó a disponer, ha sido el énfasis que ha sido puesto en la taza de respuestas como una propiedad de la conducta. Los primeros aparatos casi siempre se usaron para estudiar las respuestas de ensayo a ensayo, en las cuales las tazas de respuesta son controladas por el experimentador. En un registro acumulativo, la taza y los cambios en la taza son notorios a primera vista sobre períodos sustanciales. El registro automático permite al experimentador advertir los cambios conforme ocurren, así como seguir los pasos apropiados.

La taza de respuesta resulta importante además de que es apropiada para el análisis principal.


Burrhus Frederic Skinner

Biografía

Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de trabajo duro.

Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16 años de un aneurisma cerebral.

Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad, incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un ateo (en una universidad que exigía asistir diariamente a la capilla).

Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York como “bohemio”. Después de algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta 1936.

También en este año, se mudó a Mineápolis para enseñar en la Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un bebé en un acuario.

En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología, incluyendo el libro Walden two, un compendio de ficción sobre una comunidad dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término conductual, por ser más apropiado dentro del campo de la psicología. N.T.

El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.


MODELO DE SKINNER

Al Igual que Pavlov, Watson y Thorndike, Skinner creía en los patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que ver con cambios observables de conducta ignorando la posibilidad de cualquier proceso que pudiera tener lugar en la mente de las personas. El libro de Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en el condicionamiento operante.

También escribió Ciencia y Conducta Humana, (1953) en el cual resalta la manera en que los principios del condicionamiento operatorio funcionan en instituciones sociales tales como, gobierno, el derecho, la religión, la economía y la educación.

El trabajo de Skinner difiere de sus predecesores (condicionamiento clásico), en que él estudió la conducta operatoria (conducta voluntaria usada en operaciones dentro del entorno).

El sistema de Skinner al completo está basado en el condicionamiento operante. El organismo está en proceso de “operar” sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace.

Durante esta “operatividad”, el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador).



Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro.”


REFUERZO: TODA INSTANCIA QUE LLEVE A INCREMENTAR LA FRECUENCIA DE RESPUESTA DEL ORGANISMO
El refuerzo SIEMPRE INCREMENTA la frecuencia de respuesta del organismo…

Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, “la caja de Skinner”) que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando “sin querer” pisa la barra y ¡presto!, la bolita de comida cae en la caja.

Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja.

Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.

¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.

Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.

Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.


Esquemas De Refuerzo

Skinner menciona que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba “bajo de provisiones” de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los esquemas de refuerzo.

El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.


TAZA: Numero de veces que se da una conducta por unidad de tiempo


TAZA FIJA El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O “x” veces. Existe una frecuencia fija entre los comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una “tasa por pieza” en la producción industrial de ropa: cobras más mientras más camisetas hagas.

INTERVALO FIJO El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el “paso”: bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.

TAZA VARIABLE Una frecuencia variable significa que podemos cambiar la “x” cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.

INTERVALO VARIABLE Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el “ritmo” por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción.

Pensándolo detenidamente… verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa “errónea”…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!