miércoles, 30 de julio de 2008

debilidades y fortalezas

Fortalezas, debilidades, amenazas y oportunidades de la informática

Introducción
Hoy en día muchas técnicas, herramientas, y metodologías, pueden utilizare en varios contextos, a veces en forma directa y otras con algunas modificaciones. Una de estas herramientas es el F.O.D.A., aplicado por las empresas, y que es una técnica que permite diagnosticar cuatro aspectos básicos:
• Fortalezas
• Oportunidades
• Debilidades
• Amenazas

Esa magnífica herramienta puede también ser aplicada, con mínimos ajustes, en el aspecto personal, especialmente laboral. El F.O.D.A. Personal tiene dos dificultades:
Es bastante difícil hacerse un autoexamen realista y ajustado a la realidad, ya que siempre cuesta reconocer las debilidades
Hay ciertas debilidades personales que no pueden ser detectadas por uno mismo, sino por personas de afuera; son aquellas debilidades que caen en la zona ciega u oscura de la conciencia. Por lo tanto lo ideal es hacerlo con alguien de confianza, por ejemplo un colega o un amigo, o un jefe que tenga condiciones de líder.

DESARROLLO
Los procesos de mejora continua se desarrollan en contexto de la cultura de calidad de Información; es por ello que además de observar y participar en los avances al exterior, se atienden indicadores propios y la retroalimentación misma de sus usuarios.

El análisis de F.O.D.A Personal consiste en analizar y evaluar las Fortalezas, Debilidades, oportunidades y amenazas del emprendimiento TIC, estando relacionadas con los siguientes aspectos:
Ejemplo de un F.O.D.A.

*Análisis de Fortalezas
Entendemos por fortaleza a la existencia de una capacidad o recurso en condiciones de ser aplicado para alcanzar los objetivos y concretar los planes y por debilidad a la falta de una determinada capacidad o condición que puede apartar o dificultar el logro de las metas o fines. Por ejemplo, ver:
• Para qué se tiene facilidad
• Cuáles son las cualidades sobresalientes
• Con qué competencias (talentos) se cuenta

En este sentido pueden considerarse al menos tres aspectos, desde la perspectiva laboral:
-Estudios
-Capacidades intelectuales
-Habilidades interpersonales y de inteligencia emocional

*Análisis de Oportunidades
Ver opciones de la vida laboral que pueden aprovecharse.
Por ejemplo este es el momento ideal para desarrollar una carrera laboral dirigida a:
• Administración de redes mediante certificaciones oficiales
• Desarrollo de sistemas operativos o aplicativos para dispositivos móviles
Análisis de Debilidades
Este análisis es el más difícil por la dificultad de tomar conciencia de estos aspectos. En el caso de las debilidades, una vez detectadas, es donde más importante resulta hacer acciones para superarlas. Para alguien puede ser terminar o empezar estudios, pero para otro puede ser superar un mal genio; o para otro, superar una gran timidez que le quita opciones de desarrollo profesional.


*Análisis de Amenazas
Requieren de un examen atento y lúcido del entorno:
¿qué puede afectarme en el futuro próximo?
¿qué cambios pueden suceder que si me pillan sin preparación me perjudiquen?
Por ejemplo, a veces un cambio tecnológico o la fusión de dos empresas con plataformas de desarrollo pueden a la larga dejarte sin trabajo.

*Opciones estratégicas
Para planificar las estrategias a seguir debemos pensar
¿Cómo se puede detener cada debilidad?
¿Cómo se puede aprovechar cada fortaleza?
¿Cómo se puede explotar cada oportunidad?
¿Cómo se puede defender de cada amenaza?

La Matriz FODA indica 4 estrategias producto de la combinación entre lo personal (Debilidades y Fortalezas) y el ámbito laboral (Amenazas y Oportunidades)
1- Estrategia DA (Debilidades vs. Amenazas)El objetivo es minimizar tanto las debilidades como las amenazas. Se puede lograr mediante por ejemplo adquirir nuevas habilidades a través de la capacitación.
2- Estrategia DO (Debilidades vs. Oportunidades)Se intenta minimizar las debilidades y maximizar las oportunidades. Un profesional identificar oportunidades en el medio ambiente externo (entorno laboral dentro de la empresa o el mercado) pero tener debilidades personales que le eviten aprovechar las ventajas que ofrece.
3- Estrategia FA (Fortalezas vs Amenazas)Se basa en las fortalezas personales que pueden contrarrestar las amenazas del entorno. Esto, sin embargo, no significa necesariamente tengamos que dedicarnos a buscar amenazas en el medio ambiente externo para enfrentarlas. Por lo contrario, las fortalezas deben ser usadas con mucho cuidado y discreción.
4- Estrategia FO (Fortalezas vs Oportunidades)Esta es la situación ideal. Es un indicador que estamos bien orientados en cuanto a:
El mercado en el que estamos inmersos
La empresa en la cual trabajamos
El rol que despeñamos dentro de la organización

Conclusiones

El uso racional de la Informática trae para el hombre una calidad superior en su nivel de vida por facilitar su labor al dedicar más su tiempo a tareas más creadoras con protección para su vida al utilizar las simulaciones en las computadoras.Los adelantos de la informática en las comunicaciones permite el acceso pleno a la información y comunicación con todo el mundo.
El análisis de F.O.D.A Personal consiste en evaluar las Fortalezas y Debilidades que están relacionadas con nuestros aspectos personales por naturaleza (virtudes y defectos) y los adquiridos (habilidades, estudios…)
Las Oportunidades y Amenazas se refieren al ámbito profesional en el cual nos desenvolvemos cotidianamente.
• El F.O.D.A. personal es una herramienta útil para:
• Prepararnos mejor para los futuros desafíos
• Nos permite un crecimiento, tanto en lo personal como en lo laboral





Mapa de sitios de red

NOVEDADES
* Información de homenaje - Biografía de Carmen Alardín Carmen Alardín
* Maestros acreditados - Listado de constancias (país en proyectos ciclo primavera 2008
* Proyectos colaborativos - Esp. – Mat. – C. Nat. – Geo. – Hist. - Civ. Y Et. – Ing.
y cursos de taller en línea - Comp. Educ. – Especialidades – Técn. Educ. – Com. Educ.
* Sitios de retroalimenta- - Presentación – Foro – Revista – Publicación - Chat
ción e intercambio para
resp. de aula de medios
* Funciones del IFE -Organigrama de los niveles de ILCE – SEP


ACONTECER
*Festival Internacional de Narración Oral -Cartel informativo
*Las cuarelas de Pablo O. Higgins-Biografía y presentación de la obra
*Las acuarelas de la Guelaguetza -Fecha de programa


SITIOS DE INTERÉS
* Red Escolar de los Estados
*Correo
* Sondeo y estadísticas
* Contacto
* Créditos
MAPAS DE SITIOS
- SEP
- SEB
- ILCE
- EDUCAT
- PRONAP
- RED NORMALISTA
SEPIENSA
- REDAL
- UNETE
- ENCICLOMEDIA
- BIBLIOTECA DIGITAL
FORMATO DE INSCRIPCIÓN POR MAIL
-Nombre
-Correo electrónico

martes, 29 de julio de 2008

Trabajo en equipo, Patricia Lopez, Blanca Austin

Implicaciones pedagógicas

Implicaciones administrativas

Implicaciones políticas

Cognitivo:

-Más Información.

-Software educativo aplicable.

-Adecuación curricular para los EBRA.

Operativo:

-Otra herramienta para el proceso Enseñanza-Aprendizaje.

-Se planearía incluyendo el aula de medios.

-Uso de portafolio de evidencias.

-Adecuación curricular para los EBRA.

-Planear en el aula de medios

Actitudinal:

-Facilita llevar un control de los educandos.

-Leer y emplear estrategias

-Hace más significativo el aprendizaje del niño adecuado a los planes y programas.

-Se planearía en tratamiento a aula de medios.

-Uso de SICRES.

-Documentación Administrativo-Directivo.

-Procesos de Gestión.

-Procesamiento de las evaluaciones externas.

-Listas de Asistencia.

-Control de Calificaciones.

-Gráficas de Aprovechamiento.

-Se maneja como promesas de campaña

-Favores políticos(votos)

-Se manejan como activos aunque a veces no se usen adecuadamente.

-Publicidad.

-Para ganar adeptos.

































ENSAYO SOBRE LAS IMPLICACIONES PEDAGÓGICAS, ADMINISTRAVIAS Y POLÍTICAS DE LAS TICS.

Introducir en nuestro trabajo como docentes las nuevas tecnologías es uno de los retos más importantes que tenemos que superar. Debido a que nos permite la transformación intelectual de todas las personas relacionadas con la educación, así como contribuir a la promoción del desarrollo político, económico y cultura de todos los individuos.

En el aspecto pedagógico, nos permite generar así como buscar más información con el uso de las computadoras se puede almacenar mucha información y con el uso del Internet nos permite buscar lo que necesitamos en muchos sitios web. Además de la utilización de software educativo, el cual nos permitirá hacer más dinámica y divertida, así como educativa la clase para los alumnos, ya que podemos considerarlas como una herramienta que puede volverse indispensable en el proceso de enseñanza-aprendizaje.

Otra utilización que podrían darles los docentes, es contemplarla de manera definitiva para la planeación de sus programas de clases, contemplado para estos el aula de medios, o búsqueda de información en Internet, así como la acumulación de trabajos de los alumnos en carpetas de evidencias, de las cuales ellos puedan llevar el control y así el maestro va revisar de manera rápida, sin tener que acumular documentos.

Además facilita llevar un control de los educandos, y con el uso de la tecnología se hace más significativo el aprendizaje, basado en los intereses del niño y adecuado a los propósitos y contenidos que se señalan en los planes y programas de educación.

En la implicación administrativa, tenemos que se podrían utilizar las TICs, en lo referente a poder diseñar una base de datos que le hiciera más fácil la integración de los datos de los alumnos como nombres, dirección, teléfono de casa, donde localizar a los padres en caso de un accidente o alguna urgencia en la escuela; también se encuentra relacionada con el nuevo sistema de captura de calificaciones SICRES, por medio del cual los padres de familia pueden acceder a las calificaciones de sus hijos desde cualquier computadora, en caso de que por alguna razón no hayan podido asistir a la entrega de boletas, o para que puedan estar verificando el estado académico de sus hijos.

Obviamente también sirve como un gran apoyo para las secretarias, ya que para la elaboración de oficios, no necesitan estarlos escribiendo cada vez que los ocupen, pues si los hacen a computadora, solo modifican los datos necesarios para así ahorrar tiempo, además de que puede ser una herramienta muy apropiada para llevar un control sobre la contabilidad que se debe llevar en la escuela, como compras, gastos de papelería, pago de servicios de mantenimiento, etc.

También es de utilidad en este aspecto para la elaboración de listas de asistencia, para llevar el control de las calificaciones de los alumnos de la escuela y por medio de ese control, sacar las gráficas de aprovechamiento de los mismos.

En lo referente a las implicaciones políticas, tenemos que los políticos la mayoría de las veces usan la inserción en la sociedad de las nuevas tecnologías como entregar computadoras, adecuar aulas con televisiones y videograbadoras o reproductores de DVD, como una promesa de campaña.

De igual manera es utilizada para darse publicidad y para ganar adeptos.

Por lo que aunque los docentes y la sociedad en general trate de pensar que la tecnología apenas nos esta alcanzando, la realidad es que ya nos rebaso y por mucho, prueba de ellos es que la mayoría de los alumnos ya saben manejar una computadora, un celular, una cámara digital, mucho mejor que los docentes, pero es nuestra función tratar de abocar ese conocimiento a algo que les deje provecho y que realmente les sea productivo para su educación, y para esto en necesario que dejemos atrás los tabús que nos representa la tecnología y empecemos a caminar con ella.

sábado, 26 de julio de 2008

LOS AZTECAS

Para poder hablar de los Aztecas, debemos remontarnos un poco de tiempo atrás de ellos, de tal forma que, al menos, encontremos algunas de sus raíces. No es posible establecer nada seguro acerca de estos antecedentes, pero nos podrá dar una idea clara y una perspectiva de que la historia, aún cuando existen diferentes opiniones en las fuentes de información, únicamente difieren en fechas y pequeños acontecimientos que realmente no son de gran trascendencia comparados con lo que sucedió después de la fundación de la gran Tenochtitlan.
Cholula estuvo habitada, aproximadamente hasta el año 800 d. C., por gente teotihuacana que fue desalojada de allí por los Olmecas (de origen popolocamixteco) que dominó durante unos 500 años y que pronto extendió su influencia hasta el centro de Veracruz; bajo su empuje cayeron la provincia cultural de Cerro de las Mesas y la región de los Tuztlas. Los habitantes nahuas de ambos lugares junto con los teotihuacanos (recientemente expulsados de Cholula), iniciaron una migración en masa, llamada de los pipiles, y se establecieron en la región chiapaneca del Soconusco, de donde más tarde se movieron hacía Centroamérica, quedándose la mayoría en Guatemala, El Salvador, Honduras y Nicaragua; pequeños grupos radicaron en Costa Rica y Panamá. Algo antes del año 900, una parte de los pipiles inició un movimiento migratorio hacía el norte y llegó a Tula, donde, bajo el nombre de nonoalca colaboró con los tolteca-chichimeca en la formación del imperio tolteca.
Hacía 900 d. C., se produjeron cambios en el clima de la región donde floreció la cultura proto-tolteca, cuyo centro fue probablemente La Quemada, al sur de Zacatecas, y esto originó la invasión de las tribus tolteca-chichimecas al Valle de México, se apoderó de Acolman y Teotihuacán y estableció su capital en el Cerro de la Estrella (cerca de Iztapalapa). Desde ahí realizó conquistas como la de las Siete Cuevas (Chicomóztoc), región situada entre Tula y Jilotépec, (antes propiedad de los otomíes) quizá a la caída de Teotihuacán. Esos tolteca-chichimecas que dominaron a los otomíes y se mezclaron con ellos constituyeron más tarde el imperio tolteca.
Un señor (rey) llamado Topiltzin decidió cambiar la capital de su imperio (tal vez a causa de la presión que desde Cholula ejercían los Olmecas), primero temporalmente, a Tulancingo y después a Tula, sitio estratégico que le permitía dominar los valles del Mezquital y de México y que por su proximidad a la frontera con los indios bárbaros, le facilitaba detener sus incursiones.
Topiltzin tuvo un reinado muy próspero; fomentó la cultura y las artes, desterró los sacrificios humanos y trató de afianzar en su pueblo el culto a su dios "Quetzalcóatl" (Serpiente emplumada), pero esto disgustó a los tolteca-chichimecas que veneraban a Tezcatlipoca, deidad que exigía sacrificios.
Al producirse el colapso de Tula, bandas de bárbaros irrumpieron desde el sur de Texas hasta entrar al Valle de México en el siglo XIII, y sólo se detuvo ante la barrera montañosa del Ajusco, que vino a ser la nueva frontera mesoamericana entre los sedentarios y los nómadas, entonces los toltecas fueron desplazados del centro de México y se diseminaron.
Poco después los acolhuas fundaron el señorío de Huejotzingo, se fortalecieron y derrotaron a Cholula, fundaron la "República de Tlaxcala" (no el estado, sino el conjunto de cuatro señoríos: Tepetícpan, Ocotelolco, Tizatlán y Quiahuiztlan). Mientras tanto, los chichimecas fundaban un señorío en la región tetzcocana, donde la civilización aumentó, tomando el idioma nahua y se volvieron sedentarios. Todo lo anterior, nos da una gran idea de lo que sucedía en el valle de México antes de la llegada de los Aztecas.
Los mexicas, nacimiento de los Aztecas y su viaje:
Los mexicas procedían, según parece, de un lugar llamado Aztatlan o Aztlán, que según varias leyendas significa "lugar de garzas", por lo cual, se les conoce mejor bajo el nombre de aztatecas o aztecas, aún cuando ellos preferían denominarse culhuas-mexicas.
Se dice que Aztatlan estaba situado en una isla de la laguna de Mexcaltitlan en la costa de Nayarit y que el grupo salió de ahí entre el año 890 y el 1111, atravesaron primero algunas regiones del norte de Jalisco y después, siguiendo el curso del río Lerma, partes de Guanajuato y Michoacán.
Los mexicas eran, atlacachichimeca, es decir, "pescadores y cazadores", y no es posible reconstruir en detalle el itinerario que habían seguido hasta que llegaron a las inmediaciones de San Juan del Río, desde donde se cuenta con mas información hasta su llegada al Valle de México. Tenían por costumbre encender cada 52 años (duración de un ciclo en su calendario), un fuego nuevo; el primero celebrado después de iniciada su peregrinación fue el de Coatépec, en la región nor-oriental del Valle de México, en el año 2 caña (1163). Allí nació, según un mito, el dios Huitzillopochtli (Colibrí del Sur), hijo de Coatlicue que era un hechicero que rendía culto a Tezcatlipoca, era su caudillo y su dios más venerado. Después de él tuvieron otros caudillos-sacerdotes hasta Ténoch, el último, quien auspició la fundación de Tenochtitlan y quién le dio su nombre; aunque también recibió el nombre de México, en honor de Huitzillopochtli o también conocido como Mexitlí.
A raíz de encender el fuego nuevo de 1163, los mexicas se trasladaron a Tula, y posteriormente se desplazaron a Apazco, por donde celebraron el siguiente fuego nuevo en 1215. Penetraron otra vez al Valle de México y se establecieron temporalmente en diversos sitios como Zumpango y Cuauhtitlan. Continuando su peregrinación llegaron a Ecatépec, bordearon el sur de la sierra de Guadalupe y arribaron a Tecpayocan, el actual cerro de Santa Isabel, cerca de los "Indios Verdes", en donde encendieron su tercer fuego nuevo en 1267. De allí, penetraron a tierras del señorío de Azcapotzalco, gobernado entonces por Acolnahuacatzin, quien les permitió avecindarse en sus dominios como tributarios, hasta que, cuando les gobernaba su primer rey Huitzilihuitl, entre 1273 y 1276, se establecieron en Chapultépec.

viernes, 18 de julio de 2008

DEFINICIONES DE ACRÓNIMOS

ARPA
Es acrónimo de la expresión en inglés Advanced Research Projects Agency ("Agencia de Proyectos de Investigación Avanzada"), denominación del organismo del Departamento de Defensa de Estados Unidos creado en 1958 como consecuencia tecnológica de la llamada Guerra Fría, y del que surgieron, una década después, los fundamentos de ARPANET, red que dio origen a Internet. La agencia cambió su denominación en 1972, conociéndose en lo sucesivo como DARPA (Defense Advanced Research Projects Agency o "Agencia de Proyectos de Investigación Avanzada de la Defensa").

AJAX
Acrónimo de Asynchronous JavaScript And XML (JavaScript y XML asíncronos, donde XML es un acrónimo de eXtensible Markup Language), es una técnica de desarrollo web para crear aplicaciones interactivas. Éstas se ejecutan en el cliente, es decir, en el navegador del usuario, y mantiene comunicación asíncrona con el servidor en segundo plano. De esta forma es posible realizar cambios sobre la misma página sin necesidad de recargarla. Esto significa aumentar la interactividad, velocidad y usabilidad en la misma.

ASP
El acrónimo ASP puede referirse a:
Active Server Pages, una solución de software de Microsoft;
el proveedor de servicios de aplicación, un negocio que sirve a otros en las necesidades de programas de ordenador;
el protocolo AppleTalk Session Protocol de la capa de sesión usado por AppleTalk

AVI
Es el acrónimo de Audio Video Interleave (intercalado de audio y video). Se trata de un formato de archivo que actúa como contenedor de flujos de datos de audio y video.


BCPL
Es un acrónimo inglés de Basic Combined Programming Language (Lenguaje de Programación Básico Combinado). Fue diseñado por Martin Richards de la Universidad de Cambridge en 1966 debido a las dificultades experimentadas con el lenguaje de programación CPL durante los años 60. El primer compilador implementado fue escrito en 1967 mientras Richards visitaba el MIT. El lenguaje fue descrito por primera vez en un proyecto presentado en una conferencia informática en 1969. Años después, Dennis Ritchie lo utilizó como base para desarrollar B (que a su vez, más tarde daría lugar al popular lenguaje de programación C).

Es un lenguaje de programación ordenado, potente y muy fácil de adaptar a diferentes arquitecturas. Se popularizó en los programas de arranque de las computadoras (bootstraps en inglés) debido a sus compiladores simples y compactos, algunos con capacidad para correr en sólo 16 kilobytes. Inclusive algunos sistemas operativos fueron escritos total o parcialmente en BCPL (TRIPOS y Amiga Kickstart entre otros).

La principal razón de la capacidad de adaptación a las diferentes arquitecturas es la estructura de su compilador, el que fue dividido en dos partes. La cara visible del mismo interpretaba el código fuente y generaba código máquina para una máquina virtual; la otra cara del compilador tomaba dicho código máquina y lo traducía al código necesario para la arquitectura deseada. No mucho después, este diseño de compiladores se hizo popular; pero el compilador de Richards fue el primero en definir una máquina virtual para este propósito. Algunos de los lenguajes que utilizan el mismo formato son Java y Pascal.

El lenguaje tiene la peculiaridad de tener sólo un tipo de dato: la palabra (word en inglés) compuesta de una cantidad fija de bits elegidos generalmente para coincidir con el tamaño de una palabra de la arquitectura correspondiente. La interpretación de cualquier valor es determinado por los operadores utilizados para procesarlos (+ los utilizaba como enteros, ! como punteros, etc. ). Para poder lograr esto, la implementación carecía de un chequeo de tipos. Para evitar estos errores, entonces, se desarrolló la notación húngara.
Parte de la comunidad informática sostiene que fue el primer lenguaje de programación en el que se desarrollaron los originales del clásico programa "Hola mundo" y el primer MUD.
En 1979 se conocían implementación para al menos 25 arquitecturas diferentes; pero su uso decayó para los comienzos del nuevo milenio. Su sucesor B fue fuente de inspiración para C, uno de los lenguajes de programación más utilizados en la actualidad para programación de sistemas.

Bit
Es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits.
Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos estados:
apagada o encendida
Memoria de ordenador de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes.El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

CD
El disco compacto (conocido popularmente como CD, del inglés compact disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, video, documentos...).



CD-R
(Compact Disc-Recordable) Disco compacto grabable. Estos discos sólo pueden ser grabados una vez. Se pueden grabar en varias sesiones (discos multisesión), con la desventaja en este caso de que se pierden bastantes megas de espacio de grabación y que algunos lectores, de modelos antiguos, no son capaces de leerlos.
Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7800 KB/s.
Para muchos ordenadores es difícil mantener esta tasa de grabación y por ello la grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la llegada de datos.
La capacidad total de un CD-R suele ser:
650 MB = 681,57 millones de bytes
700 MB = 734 millones de bytes. El más común.
800 MB = 838 millones de bytes.
900 MB = 943 millones de bytes.
Esta capacidades son válidas para discos de datos. Los formatos VCD, SVCD o el CD-Audio usan otro formato, el CD-XA que utiliza partes del CD que en los CD de datos se utilizan para corrección de errores. Así se obtiene un 13,5% más de capacidad a cambio de una mayor sensibilidad a arañazos y otras agresiones.

CD-ROM
Un CD-ROM (del inglés Compact Disc - Read Only Memory, "Disco Compacto de Memoria de Sólo Lectura"), también denominado cederrón (en terminología de la Real Academia Española, con poca aceptación), es un disco compacto óptico utilizado para
almacenar información no volátil, el mismo medio utilizado por los CD de audio, puede ser leído por la computadora con un lector de CD-ROM. Un CD-ROM es un disco de plástico plano con información digital codificada en una espiral desde el centro hasta el borde exterior. El libro amarillo del CD-ROM estándar fue establecido en 1985 por Sony y Philips. Microsoft y Apple Computer fueron entusiastas promotores del CD-ROM. John Sculley, que era CEO de Apple cuando en ese tiempo, dijo en 1987 que el CD-ROM revolucionaría el uso de computadoras personales.
Actualmente está siendo sustituido en los ordenadores personales por las unidades de DVD, tanto de sólo lectura como reescribibles. Ésto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM excede en capacidad a un CD-ROM.

DVD
El DVD (también conocido como "Digital Versatile Disc" o "Disco Versátil Digital", aunque también se le puede denominar como "Digital Video Disc" o "Disco de Video Digital") es un formato multimedia de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 cm), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF, el cual es una extensión del estándar ISO 9660, usado para CD de datos. El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas.

DVD-RW
Un DVD-RW (RE-WRITABLE) es un DVD regrabable en el que se puede grabar y borrar la información varias veces. La capacidad estándar es de 4.7 GB.
Fue creado por Pioneer en Noviembre de 1999 y es el formato contrapuesto al DVD+RW, apoyado además por Panasonic, Toshiba, Hitachi, NEC, Samsung, Sharp, Apple Computer y el


EGA
Es el acrónimo inglés de Enhanced Graphics Adapter, el la especificación estándar de IBM PC para visualización de gráficos, situada entre CGA y VGA en términos de rendimiento gráfico (es decir, amplitud de colores y resolución). Introducida en 1984 por IBM para sus nuevos PC-AT, EGA tenía una profundidad de color de 16 colores y una resolution de hasta 640×350 píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales e incluía el generador de direcciones de video Motorola MC6845.
A cada uno de los 16 colores se les podía asignar un color RGB de una paleta en el modo de alta resolución 640×350; EGA permitía escoger los colores de una paleta de 64 diferentes (dos bits por píxel para rojo, verde y azul). EGA también incluía la función completa de 16 colores de CGA en los modos gráficos de 640×200 y 320×200; sólo los colores 16 CGA/RGBI estaban disponibles en este modo. Los modos CGA orginales estaban presentes, pero EGA no era 100% compatible con CGA. EGA también podía controlar un monitor MDA ajustando los jumpers de la placa; sólo a 640×350.
La tarjeta IBM EGA básica incluía 64 kilobytes de memoria de vídeo, suficiente para controlar un monitor monocromo de alta resolución (y permitiendo todos los colores a 640×200 and 320×200 modes), si bien la mayoría de las tarjetas EGA y sus clones incluían 256 KB de memoria. Algunos clones de EGA de terceros fabricantes (principalmente las tarjetas de ATI Technologies y Paradise boards) incluían un rango de gráficos ampliado (por ejemplo, 640×400, 640×480 and 720×540), así como detección automática del monitor, y algunas un modo especial de 400 líneas para usar con monitores CGA.
El estándar EGA quedó obsoleto con la introducción del VGA por IBM en Abril de 1987 con los ordenadores PS/2.

ENIAC
Es un acrónimo inglés de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Balistic Research Laboratory de la Armada de los Estados Unidos.
Máquina gigantesca que ha sido la primera computadora de propósito general (a excepción del Colossus Mark 2 que fue usado para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico) totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.

FAQ
Es el acrónimo de Frequently Asked Questions (en inglés), que en español significa preguntas frecuentes. El término se refiere a una lista de preguntas y respuestas, dentro de un determinado contexto y para un tema en particular.
En español aunque menos utilizado, existe el término PUF acrónimo de Preguntas de Uso Frecuente

FDMA
Es un acrónimo inglés que significa Frequency Division Multiple Access, que traducido al español es Tecnología de accesso múltiple por división de frecuencias, que corresponde a una tecnología de comunicaciones usado en los teléfonos móviles de redes GSM.
Una de sus particularidades es que la separación del espectro se realiza en distintos canales de voz, separando el ancho de banda según la frecuencia, en divisiones uniformes. A pesar que puede portar información digital, no es recomendado su uso, siendo usado para transmisiones analógicas.
Su primera aparición en la telefonía móvil fue en los equipos de Primera Generación (años 1980), siendo de baja calidad de transmisión y una pésima seguridad. La velocidad máxima de transferencia de datos fue 240 baudios.


FLOPS
En informática, FLOPS es el acrónimo de Floating point Operations Per Second (operaciones de punto flotante por segundo). Se usa como una medida del rendimiento de una computadora, especialmente en cálculos científicos que requieren un gran uso de operaciones de punto flotante. FLOPS, al ser un acrónimo, no debe nombrarse en singular como FLOP, ya que la S final alude a second (o segundo) y no al plural.
Las computadoras exhiben un amplio rango de rendimientos en punto flotante, por lo que a menudo se usan unidades mayores que el FLOPS. Los prefijos estándar del SI pueden ser usados para este propósito, dando como resultado megaFLOPS (MFLOPS, 106 FLOPS), gigaFLOPS (GFLOPS, 109 FLOPS), teraFLOPS (TFLOPS, 1012 FLOPS), y petaFLOPS (PFLOPS, 1015 FLOPS).


HD
(High Density) Alta Densidad. Designación para disquetes de alta densidad; por ejemplo, los discos flexibles de 1.2MB y los 3.5” de 1.44MB. Nótese la diferencia con DD

HPFS
Acrónimo de High Performance File System, o sistema de archivos de altas prestaciones, fue creado especificamene para el sistema operativo OS/2 para mejorar las limitantes del sistema de archivos FAT. Fue escrito por Gordon Letwin y por otros empleados de Microsoft y agregado a OS/2 versión 1.2, en esa época OS/2 era todavía un desarrollo conjunto entre Microsoft e IBM.
Se caracterizaba por permitir nombres largos, metadatos e información de seguridad, así como de autochequeo e información estructural.
Otra de sus características es que, aunque poseía tabla de archivos (Como FAT), esta se encontraba posicionada físicamente en el centro de la partición, de tal manera que redundaba en menores tiempos de acceso a la hora de leerla/escribirla.

HTML
Acrónimo inglés de HyperText Markup Language (lenguaje de marcas hipertextuales), lenguaje de marcación diseñado para estructurar textos y presentarlos en forma de hipertexto, que es el formato estándar de las páginas web. Gracias a Internet y a los navegadores del tipo Internet Explorer, Opera, Firefox o Netscape, el HTML se ha convertido en uno de los formatos más populares que existen para la construcción de documentos y también de los más fáciles de aprender.
HTML es una aplicación de SGML conforme al estándar internacional ISO 8879. XHTML es una reformulación de HTML 4 como aplicación XML 1.0, y que supone la base para la evolución estable de este lenguaje. Además XHTML permite la compatibilidad con los agentes de usuario que ya admitían HTML 4 siguiendo un conjunto de reglas.

IBM
International Business Machines Tipo Multinacional (NYSE: IBM)
Fundación 1911
Sede Armonk, EE.UU.
Gerentes Sam Palmisano
Industria Informática
Productos Hardware, Software, Consultoría, Otros
Ingresos 91.100 millones de dólares, (2005)
Empleados 329.373 (2005)
Sitio web www.ibm.es
International Business Machines o IBM, conocida coloquialmente como el Gigante Azul, es una empresa que fabrica y comercializa hardware, software y servicios relacionados con la informática. Tiene su sede en Armonk (Estados Unidos) y está constituida como tal desde el 15 de junio de 1911, pero lleva operando desde 1888.
Con alrededor de 329.000 empleados repartidos en unos 161 países y unos ingresos de 88.000 millones de dólares en 2005, IBM es la mayor empresa relacionada con la informática del mundo y una de las pocas que lleva operando desde el siglo XIX hasta la actualidad.
En España cuenta con 6.900 empleados y opera desde 1926.
Tiene una presencia principal en prácticamente todos los segmentos relacionados con las tecnologías de la información, de hecho en los años recientes más de la mitad de sus ingresos vienen de sus ramas de consultoría y servicios, y no de la fabricación de equipos. Además es una firme patrocinadora del software libre.

JPEG
(Joint Photographic Experts Group) es un algoritmo diseñado para comprimir imágenes con 24 bits de profundidad o en escala de grises. JPEG es también el formato de fichero que utiliza este algoritmo para comprimir imágenes. JPEG sólo trata imágenes fijas, pero existe un estándar relacionado llamado MPEG para videos. El formato de archivos JPEG se abrevia frecuentemente JPG debido a que algunos sistemas operativos sólo aceptan tres letras de extensión. JPEG es un algoritmo de compresión con pérdida. Esto significa que al descomprimir la imagen no obtenemos exactamente la misma imagen que teníamos antes de la compresión.
Una de las características que hacen muy flexible el JPEG es el poder ajustar el grado de compresión. Si especificamos una compresión muy alta se perderá una cantidad significativa de calidad, pero, obtendremos ficheros de pequeño tamaño. Con una tasa de compresión baja obtenemos una calidad muy parecida a la del original, y un fichero mayor.
Esta pérdida de calidad se acumula. Esto significa que si comprime una imagen y la descomprime obtendrá una calidad de imagen, pero si vuelve a comprimirla y descomprimirla otra vez obtendrá una perdida mayor. Cada vez que comprima y descomprima la imagen esta perderá algo de calidad.
El formato de ficheros JPEG o JPG fue creado por un grupo independiente, llamado JFIF (JPEG File Interchange Format), quienes se encargan sólo de la utilización del algoritmo JPEG para almacenar imágenes. Existen otros formatos de fichero que también utilizan el algoritmo JPEG, el más conocido de ellos es JNG.

HIDS
(Host Intrusión Detection System). Sistema de detección de intrusos.

HTML
(HyperText Markup Language). Lenguaje de marcado de Hipertexto. Es el lenguaje estándar para describir el contenido y la apariencia de las páginas en el WWW.

JPEG/JFIF
Es el formato más utilizado para almacenar y transmitir archivos de fotos en la Web. Pero la compresión con pérdida del formato no conviene a diagramas que incluyen textos y líneas.
El algoritmo de compresión JPEG se basa en dos defectos visuales del ojo humano, uno es el hecho de que es mucho más sensible al cambio en la luminancia que en la crominancia, es decir, notamos más claramente los cambios de brillo que de color. El otro es que notamos con más facilidad pequeños cambios de brillo en zonas homogéneas que en zonas donde la variación es grande, por ejemplo en los bordes de los cuerpos (entiéndase por cuerpo cualquier cosa y no un cuerpo humano


MAC
El acrónimo MAC puede referirse a:
la dirección MAC (MAC address), identificador de 48 bits que se corresponde de forma única con una interfaz de red.
MAC Cosmetics, maquillaje.
el control de acceso al medio (Media Access Control), subcapa inferior de la capa de enlace de datos. El código de autenticación de mensaje (Message Authentication Code), código informático que sirve para asegurar la autenticidad de un mensaje.
el territorio Macao, el término MAC es utilizado por ISO 3166-1, los juegos asiáticos y la FIFA para designar a Macao.


MPEG-1
Audio Layer 3, más conocido como MP3, conocido también por su grafía emepetrés, es un formato de audio digital comprimido con pérdida desarrollado por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y posteriormente ampliado en la versión 2) del formato de video MPEG. Su nombre es el acrónimo de MPEG-1 Audio Layer 3.


MTP
(Media Transfer Protocol) es un conjunto de extensiones a PTP (Picture Transfer Protocol) creado por Microsoft, para permitir al protocolo su uso con otros dispositivos además de cámaras digitales, como por ejemplo reproductores de audio digitales, y otros dispositivos digitales portátiles.
MTP está fuertemente relacionado con el Windows Media Player.

MODEM
Acrónimo de las palabras modulador/demodulador. El módem actúa como equipo terminal del circuito de datos (ETCD) permitiendo la transmisión de un flujo de datos digitales a través de una señal analógica

NIC
Acrónimo NIC, es un grupo de gente, un ente o una institución encargada de asignar dominios de internet bajo su dominio de red sean genéricos o de países, a personas naturales o empresas que mediante un DNS pueden montar sitios de Internet mediante un proveedor de hospedaje.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.

USB
(Universal Serial Bus.) Bus serie universal. La caracteristica principal de este bus reside en que los periféricos pueden conectarse y desconectarse con el equipo en marcha, configurándose de forma automática.
Conector externo que llega a transferencias de 12 millones de bits por segundo. Totalmente PnP, sustituirá al puerto serie y paralelo, gracias a la posibilidad de conectar 127 dispositivos.

WWW
(World Wide Web) Telaraña o malla mundial. Sistema de información con mecanismos de hipertexto creado por investigadores del CERN. Los usuarios pueden crear, editar y visualizar documentos de hipertexto.

jueves, 17 de julio de 2008

COMPETENCIAS QUE DEBE TERNER UN DOCENTE

El nuevo currículo que se ejecuta a partir del Plan Decenal de Educación, lo que plantea a sus fines y principios es la formación de un ciudadano /a más conciente de sus potencialidades que sea capaz de abrirse, ya que pasa por un mundo más exigente y competitivo.
Por eso se trabajan las
competencias en función de las necesidades particulares de los individuos y la sociedad en general. El conocimiento es la base del desarrollo y la utilidad de todos los seres humanos, por lo tanto, sólo aquellos que con sus ideas son capaces de construir nuevas herramientas útiles para los demás que están en condiciones de competir en este mundo globalizado y competitivo.
En el Nivel Básico los maestros /as deben ser competentes, para que puedan contribuir significativamente al desarrollo del mismo, ya que podrán identificar y resolver
problemas de la vida cotidiana, razonar lógicamente, comunicar sus ideas, tomar decisiones, aprender nuevas tecnologías, trabajar cooperativamente y aceptar con flexibilidad el cambio; para ser un maestro libre, crítico, creativo, autocrítico, con valores y convicciones capaz de insertarse productivamente a la sociedad.
La nueva concepción sobre competencia sitúa al ser humano en el centro de toda actividad, lo hace responsable de su desarrollo
personal y grupal; concibe al hombre con ciertas características potenciales intrínseca y rasgos innatos, como es, el deseo constante de mejorarse así mismo. Es necesario que todo docente tome en cuenta ésta nueva modalidad que exige la sociedad del conocimiento con miras a la enseñanza por competencia, de lo contrario el educando seguirá saliendo de las aulas sólo con conceptos sin ponerlo en práctica. Analizar el dominio de las competencias generales por los profesores
Entendemos que una de las deficiencias que existe en el
sistema educativo es que no forma educando para el trabajo competitivo.
Definir las competencias, su importancia y sus diferentes tipos.
· Analizar las competencias que se deben desarrollar en el Nivel Básico.
· Identificar actividades que el docente debe utilizar para lograr un aprendizaje por competencia.
· Identificar las competencias que se pueden lograr en el educando.
Los pilares del cocimiento son: Aprender a conocer, aprender a hacer, aprender a vivir juntos y aprender a ser
Aprender a conocer: la dispcisión y desplazamiento que en el ejercicio de investigación se hace necesario ponerlo en práctica.
Aprender hacer: es apropiarse al contexto en una sociedad determinada.
Aprender a vivir juntos: como medio de vida en grupo los seres humanos, lo que abarca todas las condiciones
materiales y espirituales en el ámbito natural y social, para la búsqueda de respuesta en la vida y en la sobre vivencia, orientada estratégicamente a un desarrollo armonioso e integral de las potencialidades del sujeto.
Aprender a ser: capacidad para actuar con autonomía, reproduciéndose como un protagonista de la vida social, adoptando la forma para el tejido de relación que permita una vinculación entre los sujetos del
sistema educativo empleando metodología que lleven a valorar su propia identidad.

miércoles, 16 de julio de 2008

Etapas de la informatica

La primera generación
Los ordenadores de esta primera etapa se caracterizan por emplear el tubo de vacío como elemento fundamental de circuito, Son máquinas grandes pesadas y con unas posibilidades muy limitadas. El tubo de vacío es un elemento que tiene un elevado consumo de corriente genera bastante calor y tiene una vida media breve. Hay que indicar que a pesar de esto no todos los ordenadores de la primera generación fueron como el Eniac las nuevas técnicas de fabricación y el empleo del sistema binario llevaron a máquinas con unos pocos miles de tubos de vacío.

La segunda generación
En la segunda generación las máquinas empleaban circuitos transistorizados. El transistor es un elemento electrónico que permite reemplazar al tubo con las siguientes ventajas: su consumo de corriente es mucho menor con lo que también es menor su producción de calor. Su tamaño es también mucho menor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Esto permite una drástica reducción de tamaño. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios las de los transistores vienen a ser de 10 voltios con lo que los demás elementos de circuito también pueden ser de menor tamaño al tener que disipar y soportar tensiones mucho menores.

La tercera generación
En la aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Así pues un puñado de transistores y otros componentes se integran ahora en una plaquita de silicio. Aparentemente esto no tiene nada de especial salvo por un detalle; un circuito integrado con varios centenares de componentes integrados tiene el tamaño de una moneda. Así pues hemos dado otro salto importante en cuanto a la reducción de tamaño. El consumo de un circuito integrado es también menor que el de su equivalente en transistores resistencias y demás componentes. Además su fiabilidad es también mayor. En la tercera generación aparece la multiprogramación el teleproceso se empieza a generalizar el uso de mini computadores en los negocios y se usan cada vez más los lenguajes de alto nivel como Cobol y Fortran.

La cuarta generación
Las máquinas representativas de esta generación son el IBM 370 y el Burroughs. Las máquinas de esta cuarta generación se caracterizan por la utilización de memorias electrónicas en lugar de las de núcleos de ferrita. Estas representan un gran avance en cuanto a velocidad y en especial en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen. Se empieza a desechar el procesamiento batch o por lotes en favor del tiempo real y el proceso interactivo. Aparecen innumerables lenguajes de programación. Las capacidades de memoria empiezan a ser enormemente grandes.


La quinta generación: los microprocesadores
Se caracteriza por la aparición de los microcomputadores y los ordenadores de uso personal. Estas máquinas se caracterizan por llevar en su interior un Los ordenadores personales son equipos a menudo muy pequeños no permiten multiproceso y suelen estar pensados para uso doméstico o particular. Los microcomputadores si bien empezaron tímidamente como ordenadores muy pequeñitos rápidamente han escalado el camino superando a lo que hace 10 años era un minicomputador. Un microcomputador actual puede tener entre 4Mb y 32Mb de memoria discos con capacidades del orden del Gigabyte y pueden permitir la utilización simultánea del equipo por varios usuarios.

martes, 15 de julio de 2008

Qué son los programas multimedios?

¿Qué son los programas multimedios de aplicación educativa y cómo se usan? : Una introducción al modelo "NOM"
Niveles, Orientaciones y Modos de uso
Aunque las definiciones varían, se puede definir a los multimedios como la coordinación de varios medios (texto, sonido e imágenes fijas y en movimiento) mediante una computadora. De hecho, esta es la definición oficial de la Asociación Mexicana de Multimedios y Nuevas Tecnologías.
Los multimedios no son novedosos por combinar medios. Eso ya lo hacía el cine y luego la televisión y el video. Lo que ninguno de estos medios permite es que sea el usuario el que lleve el control de lo que sucede.
Tomemos el caso del cine, que combina imágenes en movimiento (Panavision 70 o mejor), audio (digital, surroundsound) y texto (si la película está subtitulada). Hoy día la proyección y control del audio pasan sin duda por equipos computarizados los controla una computadora. Sin embargo, no llamamos a esta combinación "multimedios", porque nuestra única opción es elegir la película, y ya estando dentro, si no nos gusta, salir de la sala. No podemos detener la proyección, adelantarla o retrasarla a voluntad, o volver a ver un segmento. Es decir, el control no lo tiene el espectador. Algo similar sucede con la televisión, con la diferencia de que podemos seleccionar quizá de entre varios canales, pero de nuevo, no podemos incidir sobre la presentación.
El videotape sería un medio más interactivo, dado que podemos adelantar o retrasar la cinta y repetir fragmentos, aunque si lo hacemos muchas veces corremos el riesgo de arruinar la cinta, dado que es un medio realmente hecho para ser usado de manera lineal: si queremos llegar a un punto específico, es necesario correr físicamente la cinta. Detener la cinta durante mucho tiempo hace que se deforme el material. Estos mismos problemas y limitaciones los tiene el audiocasete10. Aunque más interactivos, en el videocasete y en el audiocasete el control por parte del usuario sigue siendo restringido.
De hecho, el paquete de apoyo al Diplomado de Educación para los Medios (Arévalo et al., 1997) es un paquete "multimedios" en ese sentido: combina texto, audio y videocasetes. Y aunque quizá sería más exacto hablar de soportes múltiples, el término retoma el uso que se hacía de los multimedios hasta antes de la aparición de las computadoras multimedios. Se hablaba de "eventos multimedios" (en que se combinaba proyección de diapositivas con audio), de "happenings" (en que de nuevo se combinaban medios y además el público era parte del show) y de "instalaciones multimedios", obras artísticas que implicaban diferentes materiales y medios.

Porqué usar multimedios en educación.
Si esta caracterización de los multimedios fuera adecuada, entonces no es solamente en la combinación de medios sino en la interactividad que radica su interés educativo. De hecho, puede armarse un argumento a favor de su uso a partir de unas cuantas premisas no muy difíciles de aceptar (que de paso contrastaré con la manera en que la escuela tradicional al menos la peor escuela tradicional, la que Freire acusaba de asumir un modelo "bancario" opera):
• No todos los aprendizajes son del mismo tipo. No aprendemos igual a andar en bicicleta que a escribir poemas. Existen varias tipologías del aprendizaje que precisamente capturan estas diferencias: del aprendizaje declarativo al procedimental, o del de aptitudes al de actitudes, etc. Por desgracia, la escuela enseña prácticamente todo el currículum de la misma manera: con un profesor dictando cátedra y los alumnos tomando nota.
• No todos aprendemos igual. Existe hoy día acuerdo en que hay diferentes estilos de aprendizaje, de nuevo reflejados en diferentes tipologías: de los estilos más visuales o auditivos a los más kinestésicos; de los más autónomos a los más dirigidos; de los conceptuales a los prácticos, etc. De nuevo, por necesidad práctica, la escuela enseña como si todo mundo aprendiera mejor oyendo a un profesor.
• No todos llegamos al aprendizaje con los mismos antecedentes, ni tenemos los mismos intereses. Nuestras biografías, nuestros contextos y entornos, nuestra época, en fin, nuestros "horizontes" suelen ser diferentes.

Desafortunadamente, la escuela tradicional (y muchos de los medios) tiene que "promediar" el nivel de la instrucción, como si todos los alumnos tuvieran antecedentes e intereses similares.


• Todos aprendemos mejor haciendo. De hecho, algunos construccionistas insistirían que solamente aprendemos cuando hacemos físicamente algo (Papert, 1996). La escuela supone que aprendemos cuando se nos dice o presenta la información.

• Todos aprendemos mejor divirtiéndonos. A diferencia de la tradición escolar de que "la letra con sangre entra", aprendemos mejor si la experiencia es placentera (lo cual no significa que sea fácil o trivial). En particular, la narrativa tiene un singular poder pedagógico no es accidental que los grandes líderes religiosos utilizaran de manera profusa la parábola. De hecho, como señala un autor (Egan, 1988), a diferencia de algunas interpretaciones ortodoxas de Piaget, que asumirían que los niños no entienden nociones abstractas y de causalidad hasta cierta edad y estadio, cualquier niño de cinco años entiende porqué la bruja mala es castigada al final del cuento. De nuevo, la escuela suele operar a la inversa: los afectos quedan fuera, seguramente para hacer lugar a los datos con los que hay que rellenar las cabezas de los niños.


Si estas premisas se aceptan (y me parece que no son tan controvertibles), entonces tiene sentido incorporar los multimedios a la educación (y quizá ayudar a transformar a la escuela)14, dado que:

• Los multimedios permiten una comunicación rica, al impactar varios canales perceptuales (incluyendo el kinestésico), lo que permite que, en principio, la presentación se adecue al estilo de aprendizaje del usuario y el aprendizaje ocurra en el canal perceptual relevante (no podemos aprender música solamente leyendo sobre ella: tenemos que oírla).

• Su naturaleza interactiva (combinada con la alta capacidad de los dispositivos de almacenamiento digital, como el CD-ROM), permite que pueda variarse el orden y profundidad de la presentación de la información (información jerarquizada), adecuándose así a las necesidades de estudiantes con diferentes niveles de familiarización con la información presentada15; esta última característica se logra mediante el hipertexto, esto es, el texto no-lineal, con varios niveles de profundidad. El hipertexto permite que, con tocar una palabra del texto, el usuario acceda a otro texto.

• Los multimedios permiten narrativas ricas, con elementos dramáticos y lúdicos permiten "aprender jugando": nos tocan no solamente en el ámbito cognitivo, sino en el emocional.

• Finalmente, es la interactividad la que, mediante recursos como la simulación (la creación de modelos en la computadora que el usuario manipula y modifica), permite que el usuario aprenda haciendo.


Estas características de los multimedios se combinan con las que, de por sí, tiene ya la computadora:

• La capacidad de ofrecer una respuesta inmediata y oportuna al usuario.

• De tener una infinita paciencia y consistencia en la entrega de la instrucción.

• De almacenar las respuestas del aprendiz y trazar su trayectoria y avance.

• De permitir acceder a conjuntos grandes de información, tanto de manera local como remota.

En conjunto, son estas características de los sistemas de cómputo, y particularmente de los sistemas multimedia, las que un buen diseño instruccional debe potenciar para realmente "sacarle jugo" a este nuevo medio. Y de ahí también que algunas de las experiencias de aprendizaje que puede ofrecer la computadora son únicas, o al menos, mucho más fácil de realizar en la computadora que sin ella17. Son este conjunto de capacidades las que justifican su uso como nuevas herramientas educativas, punto al que regresaremos adelante.




¿Qué es el software multimedios de aplicación educativa?
Estamos ahora en condiciones de definir este término. "Software multimedios" sería cualquier programa que combina varios medios bajo control interactivo por parte de el.

El caso clásico son las simulaciones. La simulación nos permite tener laboratorios "virtuales" en los que no solamente podemos reproducir a bajo costo experiencias de un laboratorio real −por ejemplo, de física− sino que nos permiten alterar variables que en un laboratorio escolar difícilmente podemos controlar, como la gravedad, la resistencia del aire o la elasticidad de los cuerpos de prueba.

Simplemente significa que tenemos una nueva herramienta, con capacidades únicas que son las que le dan su particular interés educativo
Usuario; y "de aplicación educativa" hace referencia a que, independientemente de su intención original, se trata de programas que pueden potencialmente ser utilizados para promover el proceso de enseñanza-aprendizaje.

El modelo de NOM
El nombre del modelo se deriva de sus tres componentes: los niveles, las orientaciones y los modos de uso. Iniciaremos con el primer componente

a) Niveles de uso
Aunque muchos maestros piensan que es indispensable crear su propio software, ésta no es la única opción. Claramente, por toda la discusión anterior, podemos deducir que existe cuando menos otra opción, que es la de usar software pre-existente, sin mayor modificación; y existe una tercera, en que se adapta o modifica el software existente para que cumpla mejor con las funciones que se le asignan. Esta modificación puede ir desde la simple traducción desde su idioma original al nuestro, a la traducción no solamente lingüística sino cultural (lo que técnicamente se llama "localización"), y hasta la modificación del programa o "código" original esto es, el alterar parte del programa mismo. Cada nivel, por supuesto, requiere de habilidades crecientes, pero el nivel más simple lo único que requiere es aprender a usar el software ya hecho. He aquí los tres niveles más comunes:

∗ Uso de programas pre-existentes, sin modificar.

∗ Adaptación de programas existentes (traducción, localización, modificación).

∗ Creación ("desarrollo") de nuevos programas.

Podemos definir el "nivel de uso" como el grado al que el usuario altera un programa pre-existente. Se presentaría así un continuo, que va desde el uso del software tal como este viene empacado para su distribución, hasta el empleo de programas para crear otros programas, es decir, el nivel de desarrollo.
En cuanto al primer nivel, se requiere una mínima capacitación, y más bien el problema es detectar, conseguir y evaluar software pertinente a los objetivos educativos que se persiguen.

La necesidad de un enfoque crítico
El modelo NOM tiene varias consecuencias prácticas. Entre ellas, que ya no se justifica la simple adquisición de tecnología sin tener una clara idea de los objetivos perseguidos, los niveles, las orientaciones y los modos de uso que se pretenden emplear, y la selección de software que ha de usarse.
Otra consecuencia es que se hace evidente que el software multimedios no es neutral. No es neutral en enfoque educativo (como vimos en el caso de los practicadores, que derivan de una concepción conductista), ni tampoco es neutral en cuanto a los valores que promueve.

Por último, los multimedios no son neutrales en cuanto a la visión del mundo que necesariamente toman de la cultura en que se producen. Ello implica, por ejemplo, no solamente que puede haber diferencias curriculares entre el software estadounidense o español y el currículum mexicano, sino que hay diferencias culturales y valorativas importantes. Desafortunadamente, en el caso del cómputo educativo, no ha sido posible desplantar una industria local de desarrollo de manera equivalente a la forma en que se ha logrado montar una infraestructura y "expertise" local en televisión educativa, por ejemplo. Las razones son múltiples, pero el hecho es que no se cuenta con un acervo de software propio, de alta calidad, que pueda competir favorablemente en todos los casos con el software importado. Ello indica claramente que habrá que estar atento a los valores del software que se compra, que habrá que mediar y explicar, examinar críticamente y clarificar, esos valores ante los alumnos. Y, por supuesto, que es urgente desplantar una infraestructura y experiencia propias en el desarrollo de programas de aplicación educativo.

LISTA DE COTEJO