Thursday, December 21, 2006

QUÉ ES LA NANOINFORMATICA?
concepto:
La velocidad de los ordenadores y su capacidad de almacenamiento han sido las principales barreras en el desarrollo de la inteligencia artificial. Con la nanotecnología aparece la posibilidad de compactar la información hasta límites inimaginables y crear chips con memorias de un terabit por centímetro cuadrado. Un Terabit es la capacidad de la memoria humana, lo que quiere decir que los ordenadores del futuro podrán llegar a tener inteligencia propia, es decir, serán capaces de aprender, tomar decisiones y resolver problemas y situaciones "imprevistas", ya que con esta memoria se les podrá dotar de códigos extremadamente complejos. Según los expertos, esto se puede conseguir en un plazo de no más de cinco años. Lógicamente, con ordenadores tan pequeños, los dispositivos de uso también cambiarán. Al tiempo que evoluciona la tecnología de reconocimiento de voz y de escritura, se irán desarrollando otro tipo de "ordenadores personales" en miniatura, casi invisibles, insertados en objetos de uso común como un anillo, por ejemplo, o implantados en nuestro propio organismo en forma de lentillas o chips subcutáneos. También es necesario fabricar otros conductores, porque los existentes no sirven. Los experimentos con nanotubos de carbón (milmillonésima parte de un metro) para la conducción de información entre las moléculas ya han dado resultados. IBM anunció que ha conseguido crear un circuito lógico de ordenador con una sóla molécula de carbono, una estructura con forma de cilindro 100.000 veces más fino que un cabello. Este proyecto permite introducir 10.000 transistores en el espacio que ocupa uno de silicio. La posibilidad de desarrollar miniordenadores de cien a mil veces más potentes que los actuales podría suponer que éstos tuvieran inteligencia propia, lo que cambiaría los sistemas de comunicaciones. Por ejemplo, los datos podrían transmitirse con imágenes visuales mediante "displays" incorporados en forma de lentillas. La comunicación telefónica se realizaría por audioconferencias en 8 o 10 idiomas.
LOS ULTIMOS AVANCES NANOINFORMATICOS EN LA CIENCIA
Computadoras casi invisibles.-

La nanotecnología será un salto importante en la reducción de los componentes, y ya hay avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están desarrollando. El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales. Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado
Metodología.-
La metodología de investigación es descriptiva, ya que en esta investigación he recopilado datos de diferentes bibliografías, de las cuales he descrito acerca de las principales investigaciones y de los avances de la nanotecnología en el campo de la computación e informática, del mismo modo he descrito de que manera afecta los nuevos avances a la sociedad y de la importancia de estos avances para la humanidad. También he utilizado los métodos de fichaje textual, añadiendole fichas personales, es decir, de opinión a nivel personal.

SOLUCIONDEL PROBLEMA.-
Un equipo de IBM ha descubierto una forma de utilizar métodos existentes de producción masiva para crear controladores para grupos de nanocables, un avance que esperan llevará a la fabricación de chips de memoria cuatro veces más compactos que los microchips actuales. Este avance podría suponer ahorros importantes en los costes de fabricación. Hasta ahora el método de interface de IBM no ha sido aplicado para crear una célula de memoria en funcionamiento, pero según sus investigadores, esto podría ocurrir dentro de un año. Y, si todo marcha bien, diapositivas de memoria más complejos saldrán en los próximos años. También podrían ser posibles otras aplicaciones informáticas más allá de la memoria y almacenamiento de datos. Si un equipo de IBM ha encontrado métodos para poder crear controladores con nanocables, lo cual favorecerá a los chips de memoria, mucho más pequeños que los actuales, si podemos imaginar que las computadoras puedan llegar a ser del tamaño de un reloj de mano, imaginémonos que tan pequeños serían los componentes de estas nanocomputadoras. -Informática a nanoescalaHasta ahora nos habíamos habituado a que la Ley de Moore, que afirma que la capacidad de nuestros ordenadores se dobla cada 18 meses, se cumpliera a rajatabla. Pero la realidad muestra que, utilizando la tecnología convencional, que utiliza los transistores como pieza básica, este desarrollo alcanzará pronto sus límites. La alternativa para que el progreso no se detenga es crear los dispositivos de almacenamiento a escala molecular, nuevos métodos de cálculo, interruptores moleculares y cables de tubos de carbono estirados. En definitiva, lo que se conoce como ordenadores cuánticos.El primer paso hacia estos dispositivos se producía a finales de agosto de 2001, cuando los investigadores de IBM crearon un circuito capaz de ejecutar cálculos lógicos simples mediante un nanotubo de carbono autoensamblado. En estos momentos es la empresa Hewlett-Packard la que se encuentra más cerca de crear una tecnología capaz de sustituir a los actuales procesadores. La compañía promete que habrá chips de sólo 32 nanómetros en el mercado dentro de 8 años.Otras empresas como IBM o Intel le siguen de cerca. El pasado mes de junio, Intel desvelaba por primera vez públicamente sus planes para el desarrollo de chips de tamaño inferior a 10 nanómetros, combinando el silicio con otras tecnologías que están aún en sus primeras fases de investigación.Tan importante como la velocidad de procesamiento es la capacidad de almacenamiento. Eso lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la NRAM. Se trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos. Sus creadores aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash, convirtiéndose en la memoria universal para teléfonos móviles, reproductores MP3, cámaras digitales y PDAs.Por su parte, investigadores de la Texas A&M University y del Rensselaer Polytechnic Institute han diseñado un tipo memoria flash de nanotubo que tiene una capacidad potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los actuales DVDs. - Se puede crear una red de Internet basada en energía solar Unos investigadores de Canadá han demostrado que se puede utilizar la nanotecnología para conseguir un Internet de máxima potencia basado en la potencia de luz. Este descubrimiento podría llevar a una red 100 veces más rápida que la actual. En un estudio publicado en Nano Letter, el Professor Ted Sargent y compañeros explican el uso de un láser para dirigir a otro con un exactitud sin precedentes, condición necesaria dentro de redes futurísticas de fibra de óptica. “Este descubrimiento enseña como la nanotecnología es capaz de diseñar y crear materiales hechos a mediad a partir de una molécula” según Profesor Sargent. Hasta ahora investigadores ingenieros no han podido hacer realidad la capacidad de la luz de controlar luz. Con estos últimos descubrimientos, por primera vez la capacidad de procesar señales que contienen datos por medio de la luz está a nuestro alcance” según Sargent. Para superar la brecha Kuzyk, dos profesores de la Universidad de Carleton diseñaron una sustancia que combinaba buckyballs con un tipo de polímero. Esta combinación logró crear una capa clara y lisa, diseñada para lograr que las partículas de luz captase la trayectoria de otras partículas. Luego Sargent y su compañero de la Universidad de Toronto, Qiying Chen, estudiaron las propiedades ópticas de esta nueva sustancia híbrida. Descubrieron que la sustancia era capaz de procesar datos transportados en ondas de telecomunicaciones – los colores infla-rojos de luz utilizados en cables de fibra de óptica. Un sistema futuro basado en la comunicación vía fibra óptica podría enviar señales por la red global en un pico-segundo, resultando en un Internet 100 veces más rápido que el actual.

Wednesday, December 06, 2006

QUÉ ES LA NANOINFORMATICA?
concepto:
La velocidad de los ordenadores y su capacidad de almacenamiento han sido las principales barreras en el desarrollo de la inteligencia artificial. Con la nanotecnología aparece la posibilidad de compactar la información hasta límites inimaginables y crear chips con memorias de un terabit por centímetro cuadrado. Un Terabit es la capacidad de la memoria humana, lo que quiere decir que los ordenadores del futuro podrán llegar a tener inteligencia propia, es decir, serán capaces de aprender, tomar decisiones y resolver problemas y situaciones "imprevistas", ya que con esta memoria se les podrá dotar de códigos extremadamente complejos. Según los expertos, esto se puede conseguir en un plazo de no más de cinco años. Lógicamente, con ordenadores tan pequeños, los dispositivos de uso también cambiarán. Al tiempo que evoluciona la tecnología de reconocimiento de voz y de escritura, se irán desarrollando otro tipo de "ordenadores personales" en miniatura, casi invisibles, insertados en objetos de uso común como un anillo, por ejemplo, o implantados en nuestro propio organismo en forma de lentillas o chips subcutáneos. También es necesario fabricar otros conductores, porque los existentes no sirven. Los experimentos con nanotubos de carbón (milmillonésima parte de un metro) para la conducción de información entre las moléculas ya han dado resultados. IBM anunció que ha conseguido crear un circuito lógico de ordenador con una sóla molécula de carbono, una estructura con forma de cilindro 100.000 veces más fino que un cabello. Este proyecto permite introducir 10.000 transistores en el espacio que ocupa uno de silicio. La posibilidad de desarrollar miniordenadores de cien a mil veces más potentes que los actuales podría suponer que éstos tuvieran inteligencia propia, lo que cambiaría los sistemas de comunicaciones. Por ejemplo, los datos podrían transmitirse con imágenes visuales mediante "displays" incorporados en forma de lentillas. La comunicación telefónica se realizaría por audioconferencias en 8 o 10 idiomas.


LOS ULTIMOS AVANCES NANOINFORMATICOS EN LA CIENCIA


Computadoras casi invisibles.-


La nanotecnología será un salto importante en la reducción de los componentes, y ya hay avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están desarrollando. El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales. Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado


Metodología.-


La metodología de investigación es descriptiva, ya que en esta investigación he recopilado datos de diferentes bibliografías, de las cuales he descrito acerca de las principales investigaciones y de los avances de la nanotecnología en el campo de la computación e informática, del mismo modo he descrito de que manera afecta los nuevos avances a la sociedad y de la importancia de estos avances para la humanidad. También he utilizado los métodos de fichaje textual, añadiendole fichas personales, es decir, de opinión a nivel personal.
SOLUCIONDEL PROBLEMA.-


Un equipo de IBM ha descubierto una forma de utilizar métodos existentes de producción masiva para crear controladores para grupos de nanocables, un avance que esperan llevará a la fabricación de chips de memoria cuatro veces más compactos que los microchips actuales. Este avance podría suponer ahorros importantes en los costes de fabricación. Hasta ahora el método de interface de IBM no ha sido aplicado para crear una célula de memoria en funcionamiento, pero según sus investigadores, esto podría ocurrir dentro de un año. Y, si todo marcha bien, diapositivas de memoria más complejos saldrán en los próximos años. También podrían ser posibles otras aplicaciones informáticas más allá de la memoria y almacenamiento de datos. Si un equipo de IBM ha encontrado métodos para poder crear controladores con nanocables, lo cual favorecerá a los chips de memoria, mucho más pequeños que los actuales, si podemos imaginar que las computadoras puedan llegar a ser del tamaño de un reloj de mano, imaginémonos que tan pequeños serían los componentes de estas nanocomputadoras. -Informática a nanoescalaHasta ahora nos habíamos habituado a que la Ley de Moore, que afirma que la capacidad de nuestros ordenadores se dobla cada 18 meses, se cumpliera a rajatabla. Pero la realidad muestra que, utilizando la tecnología convencional, que utiliza los transistores como pieza básica, este desarrollo alcanzará pronto sus límites. La alternativa para que el progreso no se detenga es crear los dispositivos de almacenamiento a escala molecular, nuevos métodos de cálculo, interruptores moleculares y cables de tubos de carbono estirados. En definitiva, lo que se conoce como ordenadores cuánticos.El primer paso hacia estos dispositivos se producía a finales de agosto de 2001, cuando los investigadores de IBM crearon un circuito capaz de ejecutar cálculos lógicos simples mediante un nanotubo de carbono autoensamblado. En estos momentos es la empresa Hewlett-Packard la que se encuentra más cerca de crear una tecnología capaz de sustituir a los actuales procesadores. La compañía promete que habrá chips de sólo 32 nanómetros en el mercado dentro de 8 años.Otras empresas como IBM o Intel le siguen de cerca. El pasado mes de junio, Intel desvelaba por primera vez públicamente sus planes para el desarrollo de chips de tamaño inferior a 10 nanómetros, combinando el silicio con otras tecnologías que están aún en sus primeras fases de investigación.Tan importante como la velocidad de procesamiento es la capacidad de almacenamiento. Eso lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la NRAM. Se trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos. Sus creadores aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash, convirtiéndose en la memoria universal para teléfonos móviles, reproductores MP3, cámaras digitales y PDAs.Por su parte, investigadores de la Texas A&M University y del Rensselaer Polytechnic Institute han diseñado un tipo memoria flash de nanotubo que tiene una capacidad potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los actuales DVDs. - Se puede crear una red de Internet basada en energía solar Unos investigadores de Canadá han demostrado que se puede utilizar la nanotecnología para conseguir un Internet de máxima potencia basado en la potencia de luz. Este descubrimiento podría llevar a una red 100 veces más rápida que la actual. En un estudio publicado en Nano Letter, el Professor Ted Sargent y compañeros explican el uso de un láser para dirigir a otro con un exactitud sin precedentes, condición necesaria dentro de redes futurísticas de fibra de óptica. “Este descubrimiento enseña como la nanotecnología es capaz de diseñar y crear materiales hechos a mediad a partir de una molécula” según Profesor Sargent. Hasta ahora investigadores ingenieros no han podido hacer realidad la capacidad de la luz de controlar luz. Con estos últimos descubrimientos, por primera vez la capacidad de procesar señales que contienen datos por medio de la luz está a nuestro alcance” según Sargent. Para superar la brecha Kuzyk, dos profesores de la Universidad de Carleton diseñaron una sustancia que combinaba buckyballs con un tipo de polímero. Esta combinación logró crear una capa clara y lisa, diseñada para lograr que las partículas de luz captase la trayectoria de otras partículas. Luego Sargent y su compañero de la Universidad de Toronto, Qiying Chen, estudiaron las propiedades ópticas de esta nueva sustancia híbrida. Descubrieron que la sustancia era capaz de procesar datos transportados en ondas de telecomunicaciones – los colores infla-rojos de luz utilizados en cables de fibra de óptica. Un sistema futuro basado en la comunicación vía fibra óptica podría enviar señales por la red global en un pico-segundo, resultando en un Internet 100 veces más rápido que el actual.

NANOINDUSTRIA
El meso espacio es un ámbito tridimensional que se desarrolla entre 1 y 100 nanometros, en donde ocurren hechos regidos por las leyes cuánticas y que, por otra parte, es el origen de propiedades físico-químicas inéditas.En el ámbito macroscópico predomina el efecto colectivo de millones de átomos. Al aislar objetos con dimensiones entre 1 y 100 nm constituidos por algunos átomos, se ponen en evidencia comportamientos particulares, aumento de las superficies de intercambio (reactividad creciente), resistencia mecánica, funciones ópticas, electromagnéticas y térmicas, producidas por el comportamiento cuántico.Predomina en este ámbito la organización espacial de los átomos, más que la naturaleza química del material.
La escala submicrómica
La nanoindustria se ha constituido en un amplio sector industrial orientado a la utilización de la materia en una escala entre 1 y 100 nanometros.Todos los grandes sectores de la producción industrial están siendo involucrados por este amplio y avasallador movimiento que afecta la producción electrónica, textil, médica-sanitaria, agroalimentaria y energética.En el ámbito automotriz ya se venden vehículos con refuerzos de frenos o piezas fabricadas con nanotubos de carbono obtenidos de los fullerenos, cien veces más resistentes que el acero y seis veces más livianos que el aluminio.En el ámbito de la nanoelectrónica se fabrican transistores cien mil veces más finos que un cabello y también motores nanomoleculares. Además, empresas de renombre internacional, gigantes industriales, se han asociado para la elaboración de semiconductores. La nanoindustria, en lugar de representar un nuevo fenómeno, como Internet, ofrece nuevas posibilidades para la amplia gama de los que ya existen, para que puedan transformarse y adaptarse (inteligentes) o ser hibridos (electrónica) mitad sílice, mitad orgánica (bioinorgánicos). Diversas disciplinas tenderán a fusionarse para actuar mejor en la interfaz entre materia viva e inanimada.Las primeras aperturas involucrarán a los nuevos biomateriales, los catalizadores, los diagnósticos y la electrónica produciendo la fusión de diversas disciplinas como la química, la electrónica, la genética y las neurociencias, para aumentar el aprovechamiento de los conocimientos multidisciplinarios.Las inversiones en el año 2005 en el campo académico e industrial han involucrado a 9.000 millones de dólares en nanotecnología en el área estadounidense. En el área mundial, Asia, Europa y América del Norte ya constituían en el 2001, 40.000 millones. Se espera un billón de dólares para el año 2.010.
La contaminación ambiental
Se ignora hasta el presente el impacto nano sobre la salud; la célula es un ámbito nano, a nivel del núcleo, de las mitocondrias y del retículo endoplásmico, donde estos materiales pueden actuar.Los nanomateriales constituyen un conjunto heterogéneo de sustancias y aunque sus partículas pueden variar en tamaño, forma, superficie, composición química y persistencia biológica, son siempre muy reactivos.Los estudios toxicológicos revelan resultados preocupantes, especialmente por las reacciones inflamatorias en los tejidos pulmonares sometidos a nanopartículas de carbono.Los temores y preguntas surgen cada vez con mayor intensidad; los nanopolvos, por su fineza, pueden difundirse en todos los espacios corporales, alvéolos pulmonares, sangre e incluso a través de la barrera placentaria transportando compuestos de la madre al feto. Los nanotubos, al fijarse en el alvéolo pulmonar, pueden producir cáncer.Muchas veces no se conoce lo que se fabrica por falta del conocimiento de las propiedades; pueden ser nanofibrillas y nanopartículas o diversos catalizadores, aluminio, hierro, niobio.Ya en el informe de la Royal Society y de la Royal Academy of Engineering dedicado a Nanotecnología, en el 2004, se pide a los industriales restringir la exposición a los nanotubos, divulgar sus efectos toxicológicos y llevar a cabo investigaciones en profundidad para detectar los impactos biológicos.Las Academias Británicas han emitido 21 recomendaciones pidiendo que se evite la diseminación de las nanopartículas y nanotubos, y que se desarrolle una base de datos sobre los efectos tóxicos de las bioacumulaciones y la exposición específica de las poblaciones en distintos entornos.Se debe preconizar la concientización de los investigadores y personal del laboratorio a los efectos de controlar el desarrollo y uso de las nuevas tecnologías, y efectuar un relevamiento de los efectos tóxicos en el sector de la química; aproximadamente 30.000 sustancias tienen que ser evaluadas para determinar la incidencia sobre la salud y el medio ambiente (Reglamento Europeo Research, Registration, Evaluation, Authorization and Restriction of Chemicals).

Sunday, November 05, 2006

ASIGNACION 4
Realismo:
Es el método de trabajo de la ciencia. Parte de la base de que los sentidos no nos engañan, si hay algo que parece engañoso, tiene que haber una explicación racional para ello. Para la ciencia cualquier teoría que sirve para explicar los fenómenos es cierta, aunque sea errónea, si durante el tiempo que está vigente es válida. La realidad existe por sí misma, es independiente del sujeto. Otra cosa es que la conozcas parcialmente y no en toda su amplitud.
Sostiene que los lenguajes en los que las teorías científicas son elaboradas y expresadas deben ser interpretados literalmente, es decir, que los términos y conceptos utilizados en el lenguaje teórico deben ser entendidos como referentes o descríptores de entidades realmente existentes. A la vez, los realistas mantienen que las teorías científicas son descripciones del mundo que deben ser evaluadas en función de su veracidad o falsedad. Por último, los pertenecientes a la corriente realista sostienen que la aceptación de una teoría implica necesariamente creer que dicha teoría es verdadera.
Rom Harre sostiene que es una doctrina metafísica, y que hay un mundo independiente de la mente al cual referirse exitosamente haciendo uso de teorías. Sin embargo, no cree que la mejor estrategia sea enfatizar que el realismo se caracteriza mejor primero y principalmente como una doctrina metafísica, y relegar las cuestiones semánticas y epistémicas al status de problemas secundarios. Es cierto que el corazón del realismo es metafísico, las teorías ayudan exitosamente a referir a una realidad independiente de la mente, parte de la cual nunca puede ser observada, y esto no tiene nada que ver con la semántica. Se puede interactuar exitosamente con el mundo a pesar de que nuestras teorías sean falsas. Pero ¿la semántica es realmente irrelevante para la metafísica? Harré no lo cree así, e intenta mostrar que hay versiones de la teoría de la verdad como correspondencia inmunes a las críticas. Según Harré, el principio de “todo o nada” por el que parecen haberse caracterizado la visiones tradicionales acerca de la verdad y la falsedad, no ha sido nunca un rasgo necesario del concepto genérico de verdad, esto es, el principio de bivalencia no es universalmente válido, sino que se sostiene solamente para ciertos casos límite. Una vez que se le asigna a la verdad su verdadero rol, el realismo científico puede ser
ASIGNACION 1
Las 7 Deficiencias señaladas por Raúl Rojas Soriano
1. La separación de los elementos filosóficos, epistemológicos, metodológicos y técnicos en el proceso de enseñanza-aprendizaje de la investigación.Comentario: Se dice que para una buena enseñanza de investigación científica se tiene que tener todos los elementos filosóficos en conjunto para que así sea una buena enseñanza lo cual ahora no se da es por eso que la investigación científica no avanza en el país. 2. La presentación de esquemas o modelos de investigación como un conjunto de pasos o etapas que deben seguirse mecánicamente para alcanzar la verdad científica.Comentario: En mi opinión cada persona tiene una manera distinta de ver las cosas y los grandes científicos han logrado sus descubrimientos por sus propios métodos y sin seguir modelo alguno por lo tanto los esquemas o pasos solo dificultan el avance científico. 3. La desvinculación entre los planteamientos teóricos sobre la investigación y los problemas propios del medio profesional en donde el egresado va a trabajar. La formación de investigadores y, concretamente, la metodología se presenta en forma abstracta, aislada de las condiciones sociohistóricas en que vive y trabaja el alumno.Comentario: Hoy en día la ciencia que nos brindan es casi totalmente teórica ya que a la final no se puede aplicar en el desarrollo del país como por ejemplo las carreras profesionales que solo brindan teoría y no dan a conocer los problemas netamente de un campo laboral , generalmente no se enseña de acuerdo a la realidad de la persona egresado, por lo tanto al salir no tiene la metodología para su desenvolvimiento lo cual hace a un investigador mediocre. Es por eso que se tiene que enseñar de a curdo con la realidad de la persona para después se pueda desenvolver y ayudar al crecimiento del país.4. La exposición de los temas metodológicos está bajo la responsabilidad del profesor, mientras que los alumnos asumen una actitud pasiva o cuando mucho sólo participan con preguntas o dudas.Comentario: En estos tiempos hemos caído en gran error de conformarnos con lo que el profesor nos presenta y aceptarlo como la única verdad, lo cual hace que nosotros los alumnos tomemos una actitud pasiva; cuando en realidad nuestra actitud frente al aprendizaje debe ser activa y dinámica y esto solo se consigue si empezamos a descubrir las cosas por nuestro propio esfuerzo tomando al profesor como guía para nuestra investigación de esta manera estaríamos en camino a l a investigación científica. 5. La realización de talleres de investigación reproduce los vicios y deficiencias de la enseñanza tradicional: poca participación, pobre discusión. La mayoría de los miembros del equipo de trabajo no asume su responsabilidad; se nombran representantes para realizar las distintas tareas, lo que origina poca o ninguna colaboración del resto del equipo.Comentario: Usualmente los trabajos en equipo generan la poca participación de los miembros del grupo lo cual genera poco aprendizaje cuando en realidad debería ser un motivo para investigar bien y así de manera conjunta poder llegar a una conclusión, ya que, haciendo esto todos los integrantes estarán en la capacidad de compartir estos conocimientos con los demás.6. La falta de productos concretos (proyectos de investigación) que permitan materializar las indicaciones metodológicas.Comentario: La falta de temas concretos para investigar hace que toda investigación sea abstracta (no se puede ver). Lo cual hace que halla poco interés en la investigación o dedicación a la ciencia.7. La desvinculación entre el método de investigación y el método de exposición. Se enseña a investigar pero se descuidan los aspectos relacionados con la exposición del trabajo, lo que dificulta cumplir con una exigencia fundamental de la comunicación científica: socializar el conocimiento.Comentario: El enseñar a investigar, que es indagar con mucha dedicación, tiene que estar ligado a enseñar lo exposición, que vendría a ser explicar lo que se aprendió con dicha investigación, para que de esta manera la enseñanza sea completa y así se pueda lograr el avance del desarrollo intelectual del país ya que al exponer algo que hallamos aprendido compartimos el conocimiento con los demás, así ellos también habrán aprendido e incluso podrán indagar más y mejorar estos conocimientos.
ASIGNACION 2
Dialéctica: La dialéctica es una lógica basada en la 'identidad' y la 'inclusión' de conceptos. Aún no en la 'oposición' o contradicción, operación que se introduce a partir de la dialéctica hegeliana.Sistema de razonamiento que analiza las contradicciones que surgen a la hora de estudiar la realidad y que intenta dilucidarlas: la idea de superar los términos de la contradicción en una síntesis creativa es la base de la dialéctica hegeliana.Ciencia que trata de las leyes más generales del desarrollo de la naturaleza, de la sociedad y del pensamiento humano.Método de razonamiento que enfrenta posiciones diferentes para confrontarlas y extraer de ellas la verdad.ciencia filosófica que permite llegar a la verdad: La Dialéctica es ciencia y es método a la vez y permite llegar a las ideas más elevadas (Dialéctica ascendente que culmina en la idea del bien) y descender a las cosas más humildes (Dialéctica descendente) en búsqueda constante de la verdad.
Dialéctica del conocimiento: La dialéctica del conocimiento, consistente en la revelación de las contradicciones del concepto, el descubrimiento de lo contradictorio contenido en ellas, y la superación de las contradicciones fue fundamentada y desarrollada por Hegel como la lógica interna del desarrollo del conocimiento.
ASIGNACION 3
DIMENCIONES DE LA REALIDAD SEGUN
ALBERT EINSTEIN


Masa y energía:Einstein estableció la ecuación E = mc2 (donde E es energía; m, masa; y c, la velocidad constante de la luz) para explicar que masa y energía son equivalentes. Hoy se sabe que masa y energía son formas distintas de una misma cosa que recibe el nombre de masa-energía. Si la energía de un objeto disminuye una cantidad E, su masa también se reduce una cantidad igual a E/c2. Pero la masa-energía no desaparece, sino que se libera en forma de la llamada energía radiante.
Espacio-tiempo:Doscientos años antes de que Albert Einstein formulara sus teorías sobre la relatividad, el matemático inglés Isaac Newton sugirió que el espacio y el tiempo eran absolutos (fijos) y que el primero estaba totalmente separado del segundo. Según la teoría de la relatividad, sin embargo, el tiempo y las tres dimensiones del espacio (longitud, altura y profundidad) constituyen un marco de cuatro dimensiones que recibe el nombre de continuum espacio-temporal
La expresión espacio-tiempo ha devenido de uso corriente a partir de la Teoría de la Relatividad especial formulada por Einstein en 1905.De esta forma se hace referencia a la importancia de considerar como variable no sólo las tres dimensiones del espacio sino también el tiempo para comprender cabalmente los fenómenos físicos que ocurren en el Universo; es usual la expresión "cuarta dimensión" o "espacio de cuatro dimensiones".

ASIGNACION 5
Clasificacion de los metodos científicos:
El método hermenéutico: (Método Deductivo)No sólo interpreta la realidad, sino que la crea, no sólo asimila, sino que transforma. La comprensión es algo que va entre ese factor interpretante y ese factor de transformación.
Los métodos heurísticos:(Método Inductivo) Se compone de una serie de pasos generales para resolver problemas, empleando reglas empíricas que suelen llevar a la solución.Los métodos heurísticos son estrategias generales aplicables a una amplia variedad de situaciones problemáticas; proveen alternativas para aproximarse a la solución de cualquier problema, así como para comprenderlos, confrontarlos y resolverlos. Los métodos heurísticos ofrecen sólo una probabilidad razonable de acercarse a la solución. Un ejemplo, es el método heurístico de Polya, que considera los siguientes pasos: · Comprender el problema. · Idear un plan. · Ejecutar ese plan. · Verificar los resultados.
Método exegético: (M.I.) Este método permitió la explicación pormenorizada de las diferentes disposiciones legales analizadas en el estudio. Método exegético busca clarificar conceptos oscuros / dudosos, mediante un examen de la intención del Legislador que ha creado la norma.
Método hipotético:(M.D.) Es central en esta concepción del método científico, la falsabilidad de las teorías científicas, esto es, la posibilidad de ser refutadas por la experimentación. En el método hipotético deductivo, las teorías científicas no pueden nunca reputarse verdaderas, sino a lo sumo no refutadas.
Método Sintético :(M.I.) Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.
Método sincrónico: (M.I.) Explica los fenómenos sociales a través de sus relaciones con fenómenos que se dan en el mismo tiempo.
Método diacrónico: (M.D.) explica los fenómenos comparándolos con otros que se han presentado anteriormente. En este método se perciben los fenómenos sociales como una fase en un proceso dinámico.
Método Analítico: (M.D.) Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado. La física, la química y la biología utilizan este método; a partir de la experimentación y el análisis de gran número de casos se establecen leyes universales. Consiste en la extracción de las partes de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver, por ejemplo las relaciones entre las mismas.
Método Descriptivo: (M.D.) Consiste en describir, analizar e interpretar sistemáticamente un conjunto de hechos o fenómenos y sus variables que les caracterizan de manera tal como se dan en el presente. El método descriptivo apunta a estudiar el fenómeno en su estado actual y en su forma natural; por tanto las posibilidades de tener un control directo sobre las variables de estudio son mínimas, por lo cual su validez interna es discutible.A través del método descriptivo se identifica y se conoce la naturaleza de una situación en la medida en que ella existe durante el tiempo del estudio; por consiguiente no hay administración o control manipulativo o un tratamiento específico. Su propósito básico es: Describir cómo se presenta y qué existe con respecto a las variables o condiciones en una situación.
Método explicativo: (M.D.) Aquella orientación que además de considerar la respuesta al ¿cómo es ? se centra en responder a la pregunta ¿por qué es así la realidad? o ¿cuáles son las causas? lo que implica plantear hipótesis explicativas, y un diseño expirativo.
Método Experimental: (M.I.) Consiste en organizar deliberadamente condiciones, de acuerdo con un plan previo, con el fin de investigar las posibles relaciones causa-efecto exponiendo a uno o más grupos experimentales a la acción de una variable experimental y contrastando sus resultados con grupo de contro o de comparación.Prácticamente se opone al método descriptivo en el sentido de que, el experimento por ser deliberado, aleja al investigadorde situaciones normales o naturales o de la vida diaria; así como presupone procedimientos de control más riguroso.Hacen uso del método experimental los diseños de investigación pre-experimental, cuasi-experimental y experimental propiamente dicho. Tanto los diseños pre-experimentales y especialmente cuasi-experimentales, consisten en aproximarse a las condiciones de un verdadero experimento en un ambiente que no permite el contro directo o la manipulación de las variables de estudio.
Método Sistémico: (M.D.)Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.
Método Histórico: (M.D.)Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica, para conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su esencia. La estructura lógica del objeto implica su modelación.
Método Genético: (M.D.)Implica la determinación de cierto campo de acción elemental que se convierte en célula del objeto, en dicha célula están presentes todos los componentes del objeto así como sus leyes más trascendentes.
Método de la Modelación: (M.D)Es justamente el método mediante el cual se crean abstracciones con vistas a explicar la realidad. El modelo como sustituto del objeto de investigación. En el modelo se revela la unidad de los objetivo y lo subjetivo.La modelación
es el
ASIGNACION 6
Clasificación del proyecto:
Los proyectos se clasificarán de acuerdo con los siguientes criterios:
Según CITMA: básicos o de creación científica, aplicados o de desarrollo tecnológico, de innovación tecnológica, servicios científicos y tecnológicos, etc.
Básicos o de creación científica: encaminado a la búsqueda de nuevos conocimientos fundamentales dentro del universo de salud, sin perseguir de antemano ninguna aplicación o uso particular del proceso.
Aplicada o de desarrollo tecnológico: aplicación práctica de la investigación básica. Tiene un propósito definido y se dirige a la solución de una necesidad percibida o un problema de salud existente.
Investigación y desarrollo (I+D): combinación de la investigación de creación científica y de desarrollo tecnológico, que conduce a un nuevo proceso o producto y por extensión a su realización a escala comercial.
Evaluación de tecnología: encaminada a examinar las consecuencias sociales más amplias de la introducción de una tecnología nueva, la ampliación o extensión de una tecnología existente o la repercusión de una tecnología de uso no evaluada previamente.
Asimilación de una tecnología: incorporación a la práctica diaria del uso de una tecnología no empleada antes en la provincia o país.20
Según tipo de estudio: exploratorios, descriptivos (transversales y longitudinales), no experimentales (observacionales y analíticos), y experimentales (ensayos clínicos).
Según programas: nacionales, ramales, territoriales y proyectos no asociados con programas.