Monte Verde: hallazgo arqueológico más antiguo de América

Durante décadas, los arqueólogos sostuvieron que los primeros seres humanos entraron a América sobre el puente del Estrecho de Bering hace unos 13.000 años. Pero en 1976 se hizo un descubrimiento en Chile que obligó a que esa conclusión fuera reescrita: Monte Verde.

¿Qué es Monte Verde?

Es un yacimiento arqueológico ubicado en la Región de Los Lagos, al sur de Chile que fue descubierto por primera vez en 1976. El sitio está a unos 500 kilómetros al sur de Santiago.

Las ruinas de Monte Verde están muy bien conservadas y representan un pequeño asentamiento de 20 a 30 personas que vivían en 12 chozas. La llama extinta, los mariscos, una variedad de vegetales y frutos secos, y lo más asombroso, un trozo todavía reconocible de carne de mastodonte, fueron recuperados en el sitio y representan la dieta de los ocupantes.

Entre los fósiles se encontraron restos de Paleollamas, ancestros de las llamas actuales.

Historia de un gran hallazgo

Hasta hace pocos años, la mayoría de los arqueólogos creía que los Clovis eran los primeros seres humanos en llegar a América, y que se extendieron a través de Norteamérica. Tal creencia ha sido refutada por el hallazgo de Monte Verde en Chile, que fue ocupado por lo menos mil años antes del asentamiento de los Clovis más antiguos.

Por razones que aún no están muy claras, hace aproximadamente 13.000 años la superficie de agua de Monte Verde se elevó e inundó el campamento, lo que obligó a los habitantes a marcharse. Luego se formó una turbera que asfixió el lugar pero lo protegió del ataque bacteriano y los cambios destructivos de la humedad.

Los Clovis eran considerados la cultura indígena más antigua del continente americano a mediados del siglo XX.

Hallazgos arqueológicos

La turba que se formó en Monte Verde conservó todo lo que dejó la gente:

Herramientas

Se encontró una gran variedad de herramientas de madera, como palos de excavación, lanzas y un mortero. También se recuperaron instrumentales hechos de piedra.

Cimientos de las casas

La madera y los materiales de al menos 12 estructuras se conservaron en el sitio. Los cimientos estaban hechos de troncos y tablones sostenidos con estacas de un tipo diferente de madera que apoyaban habitaciones de 3 a 4 metros de largo por cada lado. Se presume que colocaron postes verticales para sostener un armazón de troncos cubierto por pieles de animales.

¿Sabías qué...?
El gonfoterio es un animal mamífero extinto, ancestro del elefante, cuyos restos fosilizados se encontraron en Monte Verde durante las primeras excavaciones.

Plantas comestibles

Las plantas eran extremadamente importantes en la dieta del pueblo de Monte Verde. Alrededor de 42 especies comestibles han sido identificadas en el lugar, entre ellas patatas silvestres, bambúes, champiñones, semillas de juncos, bayas, frutos secos y una gran cantidad de frutas exóticas. Debido a que muchas de estas son de especies que maduran a lo largo del año, se presume que el sitio fue ocupado durante ese período de tiempo. Otra evidencia de la importancia de los vegetales en la dieta de la gente de Monte Verde es el gran número de piedras para moler encontradas allí.

Otro hallazgo

Monte Verde no es el único sitio que pone en duda el paradigma tradicional. En 1997, un grupo de científicos encabezado por la Dra. Anna Roosevelt del Museo de Campo de Chicago, anunció los resultados de sus excavaciones en la Caverna de la Roca Pintada de la Amazonia brasileña, donde encontraron los restos de un antiguo campamento, huesos de animales y fosas de frutas que datan de más de 11.000 años.

Plantas medicinales

Los restos de unas 22 especies de plantas fueron recuperadas del sitio; el análisis reveló que eran especies no comestibles idénticas a las utilizadas hoy por los pueblos nativos locales para la cura de enfermedades. Quizás la gente de Monte Verde también las usó con este fin.

Plantas medicinales, plantas exóticas y plantas comestibles fueron encontradas en el campamento.

Huesos de animales

Los huesos estaban bien conservados; la mayoría provenía de mastodontes, un pariente cercano pero extinto del mamut y del elefante. Uno de los huesos todavía tenía un pedazo de carne unido a él.

Huella humana

Una sola huella, la de un niño pequeño, se conservaba en el lodo arenoso cerca de un hogar.

La huella era de aproximadamente 12,7 cm por lo que se presume que pertenecía a un niño.

Ruptura de paradigmas

Monte Verde da una imagen general de la vida en América que hasta hace poco se relacionaba con otras teorías e interpretaciones sobre sus primeros ocupantes. Como se señaló anteriormente, el paradigma tradicional afirma:

  • Las personas entraron por primera vez a América hace 12.000 años, aproximadamente.
  • Los primeros americanos, los paleoindios, vivieron principalmente como grupos móviles pequeños de grandes cazadores.

 

Los Clovis eran principalmente cazadores, por ello la forma puntiaguda de sus herramientas o puntas de caza.

La evidencia en Monte Verde contradice el primer punto y difiere marcadamente del segundo punto. Las fechas de radiocarbono de hace 13.000 años de Monte Verde indican que los humanos ya habían cruzado el estrecho de Bering anteriormente. Además, los materiales orgánicos de Monte Verde indican que las plantas eran extremadamente importantes en su dieta y que vivían en un lugar durante todo el año, lo que contrasta con las imágenes tradicionales de los paleoindianos como hábiles cazadores.

Patrimonio: bienes heredados

¿Qué es el patrimonio?

Proveniente de latín patrimonium, el patrimonio en términos simples se define como “el conjunto de bienes que pueden ser heredados”, bien sea, de manera individual, global o por una comunidad específica.

La generalidad de este término se suele utilizar de manera simbólica o para nominar a lo que es susceptible de estimación económica.

Patrimonio natural

Los patrimonios naturales son áreas de tierra o de mar que pueden ser identificadas y definidas mediante el uso de estrictos criterios de evaluación como valores patrimoniales, para fines de conservación o gestionados activamente para este propósito.

Tales lugares podrían incluir parques nacionales, áreas marinas protegidas, reservas naturales, jardines botánicos, hábitats significativos de fauna y flora y sitios geológicos.

 

Paisajes rurales, costas y litorales e incluso zonas agrícolas pueden formar parte del patrimonio natural de una región.

Patrimonio cultural

El patrimonio cultural es una expresión de los modos de vida desarrollados por una comunidad, que incluye costumbres, prácticas, lugares, objetos, expresiones artísticas y valores transmitidos de generación en generación. El patrimonio cultural se expresa a menudo como bien cultural tangible o intangible.

El patrimonio cultural es un concepto amplio que se basa en las similitudes entre los diversos sectores patrimoniales.

Tipos de patrimonio cultural

El patrimonio cultural ofrece representaciones tangibles e intangibles de los valores, creencias, tradiciones y estilos de vida de las generaciones anteriores. A pesar de que viene del pasado, el patrimonio cultural se conserva en el presente y es valorado por las actuales generaciones.

Patrimonio tangible

El patrimonio cultural tangible se refiere a cosas que podemos almacenar o tocar físicamente; como por ejemplo ropa tradicional, herramientas, edificios, monumentos, obras de arte o creaciones artísticas, monumentos, modos de transporte y otros productos físicos de la creatividad humana que tienen un significado cultural en la sociedad.

 

El patrimonio cultural tangible se refiere a los artefactos físicos producidos, mantenidos y transmitidos entre generaciones en una sociedad.

A la vez, el patrimonio tangible se puede clasificar en mueble e inmueble:

  • Mueble: comprende los objetos de tipo arqueológico, histórico, artístico, tecnológico, religioso y aquellos de origen folklórico que forman parte de la historia y la cultura de una comunidad. Ejemplos de este tipo de patrimonio son las obras de arte, los manuscritos, los documentos, las grabaciones, las fotografías, las películas y las artesanías. Este tipo de patrimonio se resguarda en lugares específicos, como los museos, para que esté al alcance visual del público en general.
  • Inmueble: este tipo de patrimonio está constituido por estructuras que se conservan y protegen con el fin de transmitir la historia que representan a las próximas generaciones; estos son lugares, sitios, edificaciones, zonas típicas y monumentos que no pueden ser transportados de un lugar a otro y que representan un alto valor desde el punto de vista arquitectónico, histórico, artístico, arqueológico o científico.

Patrimonio intangible o inmaterial

El patrimonio cultural inmaterial incluye tradiciones orales, rituales, valores, mitos, creencias, conocimientos y habilidades de artesanía tradicional, que popularmente se perciben a través de la cocina, vestimenta, formas de vivienda, ceremonias religiosas, artes escénicas y narración de cuentos.

 

El patrimonio cultural inmaterial se refiere a cosas que no son elementos físicos, sino que existen intelectualmente.

Patrimonio histórico

Los lugares patrimoniales históricos se relacionan particularmente con la ocupación y uso del continente desde la llegada de los europeos y otros migrantes.

El patrimonio histórico ilustra la forma en que las culturas tanto indígenas como no indígenas, han modificado, moldeado y creado nuestro entorno cultural. Por su naturaleza este seguirá en constante evolución para representar el flujo de la historia y las percepciones cambiantes de la comunidad.

UNESCO

Cada país o región puede tener su patrimonio, pero la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, por sus siglas en inglés UNESCO, tiene una distinción especial para titular a dichos lugares dentro de la clasificación de patrimonio natural o cultural de la humanidad. Existen cerca de 79 países con patrimonios naturales reconocidos por la UNESCO y la mayoría de los países de los cinco continentes describen patrimonios culturales de la humanidad.

Italia es el país con más patrimonios declarados a nivel mundial.
¿Sabías qué...?
Las casas, vehículos, tierras o empresas de una familia, según el derecho, se consideran patrimonios personales que se heredan de una generación a otra.

Agricultura indígena

Los pueblos indígenas pueden contribuir significativamente al debate sobre la agricultura familiar gracias a su riqueza de conocimientos tradicionales, espiritualidad y comprensión de la gestión de los ecosistemas.

Los pueblos indígenas son un grupo muy diverso adaptado a vivir en muchos ambientes diferentes, pero siempre en estrecha relación con la naturaleza; comparten varios elementos claves en sus medios de subsistencia que los distinguen. Con respecto a sus sistemas alimentarios, éstos combinan la recolección, la caza y el cultivo.

El trabajo se realiza a través de la reciprocidad; la unidad productora es la comunidad o el clan y dependen de recursos comunales como bosques, lagos, ríos, tierras y pastos.

Los sistemas alimentarios de los indígenas son respetuosos con el medio ambiente

Importancia de la agricultura Indígena

Los agraristas han trabajado la tierra durante miles de años y encontraron soluciones naturales para hacer frente a condiciones adversas. Protegieron las semillas de las plantas, lo que aseguró una amplia variedad de cultivos disponibles, utilizaron plantas para repeler las plagas y emplearon métodos ecológicos para mejorar la calidad del suelo.

En el siglo XX, la agricultura comenzó a depender en gran medida de los “milagros” de la industria moderna, la incorporación de productos químicos, el monocultivo y otros métodos dañinos. Sin embargo, las comunidades indígenas de todo el mundo continuaron con sus métodos tradicionales y antiguos, y los transmitieron de generación en generación según las necesidades de la comunidad y las condiciones climáticas.

 

La agricultura indígena no ha desaparecido, sólo ha sido silenciada por la avaricia corporativa y los productos químicos tóxicos.

 

Descubrimiento de la antigua sabiduría indígena

En siglos pasados, la cultura de Tiahuanaco habitó una región en las montañas andinas cerca del lago Titicaca en Bolivia, en una elevación de más de 12.000 pies, donde utilizaron un sistema de riego avanzado que ayudó a alimentar a una población numerosa.

Las técnicas que utilizaron eran desconocidas para los colonizadores españoles y siglos después fueron redescubiertas.

Las pistas de esta tecnología agrícola antigua fueron encontradas en la década de 1980 por un equipo de arqueólogos. Las más visibles fueron pequeñas ondulaciones encontradas a través de las llanuras, indicadores de un complejo sistema de canales, riego y drenaje.

¿Sabías qué...?
El conocimiento indígena es un recurso inmensamente valioso que proporciona a la humanidad ideas sobre cómo las comunidades han interactuado con su entorno cambiante.

A medida que los arqueólogos desenterraron este antiguo paisaje, creció la comprensión de su profundo significado agrícola.

Técnica waru waru para cultivar

Esta tecnología se basa en la modificación de la superficie del suelo para facilitar el movimiento y el almacenamiento del agua, y aumentar el contenido orgánico del suelo. Este sistema de riego para manejo del suelo se desarrolló por primera vez en el año 300 a. C., antes del surgimiento del Imperio Inca. Más tarde, fue abandonada tras el descubrimiento de tecnologías de riego más avanzadas. Sin embargo, en 1984 en Tiahuanaco, Bolivia y Puno, Perú, se restableció el sistema que se conoce en la región como Waru Warn, que es el nombre tradicional Quechua para esta técnica.

La técnica acuñada waru waru por los lugareños no sólo ha aumentado la productividad y la seguridad de los cultivos, sino que además, las pequeñas parcelas de tierra que utilizan las comunidades locales, no causan gran impacto al medio ambiente circundante.

Recuperar una técnica utilizada por sus antiguos parientes permite a los agricultores locales reconectarse con sus raíces ancestrales.

Con la recuperación de esta técnica, los agricultores no sólo aseguran un futuro más próspero y saludable para sus hijos, sino que también proporcionan inspiración para que el resto del mundo redescubra la sabiduría de sus raíces indígenas.

Agricultura aborigen en América

La conexión entre cultura y tierra tiene como modelo la agricultura indígena a través de prácticas de cultivo de alimentos que se adaptan a ambientes específicos y que trabajan en contraposición con procesos naturales. Las prácticas agrícolas tradicionales de los nativos americanos ejemplifican esta relación.

En América del Norte, los pueblos indígenas combinaron el maíz, los frijoles y la calabaza para crear un policultivo que actualmente se conoce como “las tres hermanas”. En las regiones húmedas, los agricultores cultivaron estas mismas plantas en montículos elevados para mejorar el drenaje, mientras que en el árido oeste plantaron en jardines deprimidos y bordeados para capturar la lluvia.

A lo largo de las Américas, los agricultores indígenas combinaron cultivos intercalados y agroforestería para producir altos rendimientos de cultivos en pequeños espacios. Por ejemplo, en las regiones montañosas de los continentes los agricultores cultivan cafetales. Éstos son sombreados con varios pisos de árboles frutales altos que forman la capa superior, cafetales en la capa intermedia y las plantas más pequeñas como chiles, cebollinos y chayotes cerca del suelo.

Los árboles protegen las plantas que tienen debajo de los vientos fuertes y las temperaturas frías, y sus hojas caídas proporcionan un abono natural.

A lo largo de la costa del Pacífico de América del Sur, los agricultores indígenas utilizaron una gama de sofisticados sistemas hidráulicos para convertir una región geográfica climáticamente extrema en un paisaje productivo.

Conservación de la biodiversidad

El papel del conocimiento indígena en la preservación de la biodiversidad es esencial para el desarrollo humano; este conocimiento sobre los recursos fitogenéticos es una herramienta invaluable en la búsqueda de nuevas formas de conservar y utilizar estos recursos para beneficiar a las comunidades locales.

En las montañas construyeron miles de hectáreas de terrazas que redujeron la erosión, y en las mesetas excavaron jardines hundidos que redujeron el escurrimiento. En las tierras bajas propensas a inundaciones construyeron miles de plataformas elevadas con canales para mejorar el drenaje y proteger sus campos de las inundaciones repentinas. En los valles más secos de la costa construyeron campos hundidos para capturar el agua de lluvia.

En general, estas prácticas fueron sostenibles y perduraron durante miles de años hasta que fueron interrumpidas por conquistas y asentamientos coloniales. Mientras que los cultivos indígenas americanos se introdujeron en colonias y en todo el mundo, los métodos de producción de los agricultores indígenas fueron en su mayor parte evitados por las sociedades occidentales y colonizadoras durante más de 500 años.

 

Aplicaciones de la función lineal

Las funciones matemáticas pueden tener variadas aplicaciones: en economía, ciencias, problemas cotidianos, entre otros. La función lineal en particular se utiliza cuando intervienen dos magnitudes cuya proporcionalidad es directa.

Las funciones lineales se representan mediante una recta.

Las funciones lineales también son denominadas funciones de proporcionalidad directa, se representan gráficamente mediante rectas que permiten observar la relación entre una variable y la otra.

Proporcionalidad directa

Para identificar si dos magnitudes son directamente proporcionales se deben tener en cuenta dos condiciones:

  • Si una magnitud aumenta, la otra también lo hace. Asimismo si una magnitud disminuye de igual modo la otra.
  • El cociente entre las dos magnitudes es siempre el mismo y se denomina constante de proporcionalidad (m).

Ejemplo:

En una fotocopiadora el precio por cada fotocopia es de 0,50 centavos. ¿Cuál es el precio de 16 fotocopias?

Veamos que se cumplan las dos condiciones antedichas:

  • A más fotocopias, más dinero se deberá abonar.

Para calcular el dinero a abonar por 16 fotocopias, se puede utilizar la siguiente proporción:

De donde se obtiene:

Por lo tanto, 16 fotocopias costarán $8.

Cumpliéndose que a más fotocopias, más dinero a pagar.

  • El cociente de ambas razones es el mismo.

La constante de proporcionalidad es igual a 2, m=2.[NG1]

Función lineal

Una función lineal, es una expresión matemática definida por una relación de proporcionalidad directa entre dos magnitudes x e y. Se puede expresar mediante la expresión:

El valor de y dependerá del que le demos a x, m es la constante. Ejemplo:

Por ello a x se la denomina variable independiente y a y variable dependiente.

Con los resultados se obtienen puntos que pueden ser representados en un eje cartesiano:

Gráfica:

Con dos puntos pertenecientes a la función lineal puede obtenerse la gráfica de la recta.

Ecuación explícita de la recta

En el ejemplo anterior, la recta pasa por el punto (0; 0) que es la intersección de los dos ejes: el eje horizontal x (eje de las abscisas) y el eje vertical y (eje de las ordenadas).

Para expresar cualquier tipo de recta, que pase o no por el origen, se utiliza la ecuación explícita de la recta:

y: variable dependiente.

x: variable independiente.

m: pendiente.

b: ordenada al origen.

En dicha ecuación, b, indica por donde corta al eje y la función:

La recta corta al eje y en 1, porque b=1.

EJERCICIO DE APLICACIÓN

Si la bajada de bandera de un taxi es de $10 y cada kilómetro (km) recorrido cuesta $3. ¿Cuánto se abonará por viajar una distancia de 5 km en taxi?

Datos:

b= 10 b es el valor fijo.

m=3 el valor que acompaña a la variable independiente x es la pendiente.

El taxímetro es un dispositivo que calcula automáticamente el resultado de una función lineal que permite conocer el costo de un viaje en taxi.

Por lo tanto, y =3x + 10 es la función lineal que se aplica al problema planteado. x: kilómetros recorridos.

x = kilómetros recorridos.

y = precio a pagar.

Como se desea viajar 5 km:

x = 5 km

Reemplazando en la fórmula obtenemos:

Rta.: Se abonarán $25 por un viaje de 5 km de distancia.

Del mismo modo se podrán realizar cálculos para distintas distancias, abonando más dinero a mayor distancia recorrida y menos si el viaje ser realiza en menor cantidad de kilómetros.

¿Sabías qué...?
La función lineal es una función polinómica de primer grado, es decir, el mayor exponente de las x es 1.

La función puede graficarse, teniendo en cuenta en este caso que no podemos tener valores negativos de x, porque desde que nos subimos al taxi se debe abonar un mínimo, denominado comúnmente bajada de bandera.

Esta es una de las tantas aplicaciones posibles para una función lineal. Es importante aprender esta función para comprender todas las demás.

El inicio de un largo camino por la libertad de Ecuador

Aunque la lucha iniciada el 10 de agosto de 1809 en Ecuador no culminó con el triunfo definitivo de los independentistas, constituyó el primer intento por derrocar al sistema colonial español. El ejemplo de los precursores de la independencia fue seguido por otros patriotas que dieron nacimiento al Estado Ecuatoriano.

Simón Bolívar, El Libertador.

Antecedentes

En 1808 reinaba en España Carlos IV, quien el siete marzo de ese año, se vio obligado a renunciar al trono en favor de su hijo Fernando VII. Napoleón, emperador francés, con ambiciones de dominar los territorios coloniales españoles, hizo prisionero al monarca. Este hecho provocó la organización de las Juntas Supremas Provinciales que establecieron la lucha del pueblo hispano contra la Francia imperial.

Napoleón Bonaparte.

Las noticias de lo acontecido en Europa llegaron con rapidez a América, inquietando a los habitantes de Quito. El 25 de diciembre de 1808, Juan Pío Montúfar, rico hacendado del Valle de Los Chillos, convocó para su hacienda “El Obraje”, a influyentes vecinos de la ciudad. El tema de discusión era la búsqueda de una solución para evitar que los franceses dominaran el país. La conclusión fue imitar a España, creando la Junta Soberana.

 

Por la fecha en que se desarrolló la reunión se le llamó “La Conspiración de la Navidad”.

Primeros pasos de la conspiración

En los meses que siguieron a la convocatoria del Marqués de Selva Alegre se sumaron otros conspiradores. El gobierno colonial descubrió sus intenciones y apresó a la mayoría de los participantes.

La posición privilegiada de los acusados y el robo de pruebas documentales permitió que, los excelentes abogados contratados, lograran la libertad de los reos.

No hay apoyo para Quito

Cuenca, Guayaquil y Pasto no apoyaron el movimiento quiteño del 10 de Agosto.

La rebelión

Los conspiradores liberados se reorganizaron y, en la noche del 9 de agosto, se reunieron en la casa de la patriota quiteña Doña Manuela Cañizares. En la madrugada del siguiente día quedó conformada la Junta Soberana de Gobierno.

¿Sabías qué...?
Manuela Cañizares arengó a los quiteños el 10 de agosto con una dura frase: “Cobardes…hombres nacidos para la servidumbre, ¿de qué tenéis miedo…? ¡No hay tiempo que perder…!”.

Composición de la Junta

Presidente: Juan Pío Montúfar, Marqués de Selva Alegre.

Vicepresidente: Obispo José Cuero y Caicedo.

Secretario de Estado: Doctor Juan de Dios Morales.

Secretario de Despacho: Doctor Manuel Rodríguez de Quiroga.

Secretario de Interior: Doctor Juan Larrea.

Los marqueses y el pueblo

Los cabecillas del movimiento del 10 de agosto en Quito fueron los dueños de latifundios, la mayoría de ellos con nombramientos nobiliarios de marqueses y condes, que se separaron de la burocracia colonial y la sustituyeron. Entre las medidas tomadas estaban la supresión de los impuestos de los blancos y no de los indios y el perdón de las deudas que tenían con la Corona por la compra de tierras. Los activistas y organizadores de la Junta eran intelectuales, abogados, medianos terratenientes y algunos sacerdotes. Más tarde, no lograrían despertar entusiasmo por su gobierno, ni en el pueblo de la ciudad ni en los indígenas ya que no los beneficiaron en nada. Sin embargo, el 2 de agosto, cuando estos habían sido perseguidos y apresados, artesanos, vendedores, tenderos y el pueblo urbano se habían levantado para defenderlos sufriendo la represión y la muerte. A pesar de luchar por sus intereses, los actores de la Revolución de Quito fueron verdaderos patriotas, porque se levantaron contra las autoridades coloniales y establecieron un gobierno, se sacrificaron por mantenerlo y muchos de ellos perdieron la vida por defenderlo.

De la Real Audiencia a la Junta de Gobierno

El mismo 10 de agosto, en horas tempranas, el Secretario General de la Junta, Doctor Antonio Ante, como comisionado se dirigió al despacho del Don Manuel Urriez, Conde de Castilla y Presidente de la Real Audiencia de Quito, para informarle la decisión de ser relevado en su cargo por la Junta de Gobierno. Por su parte el Coronel Juan de Salinas, Jefe Máximo de las fuerzas militares, juró lealtad a la Junta y al Rey.

Con la toma del poder, la Junta inició las primeras acciones ejecutivas y legislativas.

El 16 de agosto se convocó a un Cabildo Abierto que se efectuó en la sala capitular del Convento de San Agustín, donde se ratificó lo acordado seis días antes.

Reacción en la Península

Las autoridades coloniales reaccionaron enviando tropas desde Guayaquil, Pasto y otros lugares para reconquistar Quito y tomar el control apresando a los sublevados.

Guayaquil no apoyó a los sublevados.

Por su parte, la Junta organizó un ejército de 3.000 colaboradores bajo las órdenes de Ascázubi y Zambrano, con la misión de avanzar al Norte y frenar el avance de los realistas comandadas por Miguel Tacón, en ese momento Gobernador de Popayán.

Combates de Sapuyes y Cumbal

La falta de disciplina e inexperiencia de los milicianos hizo que, luego de cruzar el río Carchi y adentrarse en Pasto, fueran diezmados en los combates de Sapuyes, en el caso de Juan Ascázubi y de Cumbal, en el de Manuel Zambrano. El primero hecho prisionero y el segundo escapó con lo que quedó de su tropa.

Quito volvió al pasado

Los quiteños al conocer de la derrota de sus combatientes reaccionaron con discusiones inútiles y divisionismo. Pío Montúfar renunció al cargo de presidente. Juan José Guerrero y Mateu lo sucedió en el cargo. Su postura fue buscar acercamiento con el conde Ruíz de Castilla hasta llegar la capitulación, el 24 de octubre, bajo la promesa de olvido del pasado y la inmunidad de los miembros de la Junta.

Quito.

El engaño

Los primeros días que siguieron a la rendición resultaron normales y la Junta de Gobierno continuó en su actividad. Sin embargo, con la llegada de las tropas guayaquileñas y cuencanas, del Batallón Real de Lima y de los vencedores de Sapuyes y Cumbal las cosas cambiaron. El conde ordenó restablecer la Real Audiencia y perseguir a los que apoyaron la sublevación. Uno de los pocos en escapar fue Juan Pío Montúfar.

El proceso

El fiscal actuante en el proceso seguido contra los rebeldes pidió la pena de muerte para más de cuarenta acusados. Le tocó al virrey de Santa Fe dictar sentencia.

Se busca un caudillo

El grito libertario del 10 de Agosto constituyó un movimiento débil, frágil, desarticulado y carente de un verdadero líder.

El pueblo quiteño organizó el rescate que terminó en la matanza del 2 de agosto de 1810.

Escudo de Ecuador
Bandera de Ecuador.

 

Las causas de la derrota

La ausencia de un verdadero líder con conocimientos militares, las contradicciones internas, la falta de respaldo popular al movimiento, especialmente en las ciudades de Cuenca y Guayaquil, y la falta de unidad fueron las causas del fracaso.

Estatua de la Libertad en Guayaquil.
Cuenca.

Más allá del fracaso

Para Ecuador y América el 10 de agosto de 1809 constituyó un hecho trascendental a pesar de los errores cometidos en su organización. Para los organizadores estaba claro el interés de tomar el poder en medio de los complejos procesos que se estaban dando en la metrópoli para así delimitar mejor los territorios ocupados por los virreinatos vecinos.

Esa fecha significó el inicio de una lucha que no terminaría hasta conquistar la independencia de la patria y el continente.

Ecuador.

 

 

 

¿Sabías qué...?
Los sucesos del 10 de Agosto constituyeron el Primer Grito de la Independencia de Ecuador.

 

 

Los enlaces químicos

La energía de un agregado de dos o más átomos puede ser menor que la suma de las energías de esos átomos aislados y de ahí que, siguiendo la tendencia de cualquier sistema a alcanzar su estado de mínima energía, los átomos se unan unos con otros de diversos modos para formar moléculas estables. Así, sólo los gases nobles y los metales en estado de vapor están constituidos por átomos aislados.

Todas las demás sustancias están constituidas por moléculas integradas por un número de átomos que puede ir desde dos hasta cientos de miles (polímeros). En la formación del enlace químico intervienen únicamente los electrones de la última capa, los llamados electrones de valencia, que pueden ser parcialmente compartidos entre dos átomos (enlace covalente) o bien cedidos por uno a otro (enlace electrovalente). Es importante destacar que desde el punto de vista de la teoría química actual el enlace químico tiene carácter unitario, basándose siempre en compartir electrones por pares.

Las moléculas están constituidas por la unión de cierto número de átomos iguales o distintos. Se plantea, pues, la cuestión de saber cuál es el nexo que mantiene a los átomos unidos entre sí para formar moléculas. En todos los casos, este nexo se establece únicamente a partir de los electrones que forman la última capa de los átomos, los llamados electrones de valencia.

Hablaremos de cinco tipos de enlace distintos: iónico o electrovalente, covalente, metálico, de hidrógeno y covalente coordinado.

El fundamento del enlace químico es la Ley Física Fundamental según la cual todo sistema evoluciona hacia su estado de energía más bajo. Esta ley explica, por ejemplo, el hecho de que una bola que se encuentra en un recipiente cóncavo se sitúe en el punto más bajo del mismo o bien que, si dos disoluciones de distinta concentración están separadas por un tabique poroso, la concentración de ambas tienda a igualarse por migración del soluto a través del tabique.

 

Existen cinco tipos de enlaces: iónico o electrovalente, covalente, metálico, de hidrógeno y covalente coordinado.

Para poder aclarar la naturaleza de cada uno de los distintos tipos de enlace listados, antes deberemos explicar algunos conceptos importantes, en particular el concepto de ion, y formular la teoría del octete (u octeto).

Con respecto a la mayor o menor facilidad con que permiten el paso de la corriente eléctrica, los cuerpos se clasifican en:

  • Aislantes
  • Conductores:
    • de primera clase
    • de segunda clase o electrólitos

Los conductores de primera clase son aquellos que, como los metales, no se alteran con el paso de la corriente eléctrica.

Por el contrario, los conductores de segunda clase o electrólitos se descomponen cuando son atravesados por una corriente eléctrica. Los electrólitos son exclusivamente ácidos, bases o sales fundidos o disueltos en agua u otros líquidos.

El primero que formuló una explicación científica coherente de la descomposición de los electrólitos por el paso de una corriente eléctrica (electrólisis) fue Arrhenius, quien, en 1883-1887, propuso su teoría de la disociación electrolítica. Aunque inicialmente fue recibida sin entusiasmo por los medios científicos, esta teoría ha sido una de las más fecundas de la química moderna, ya que sentó las bases para el desarrollo de la electroquímica, que hoy constituye una de las bases de la química industrial.

Teoría de Arrhenius de la disociación electrolítica

Se denomina ion a un átomo o una partícula formada por varios átomos que posee una carga eléctrica debida a un defecto o un exceso de electrones planetarios. Según sea su carga eléctrica, los iones se clasifican en positivos o cationes y negativos o aniones.

De acuerdo con la teoría formulada por Arrhenius:

  1. Los electrólitos, en disolución o fundidos, se disocian parcialmente en iones dotados de carga eléctrica, siendo la carga total de los iones positivos igual a la carga total de los iones negativos; la disolución en su conjunto permanece neutra.
  2. Las sustancias químicamente análogas se disocian en los mismos iones (por ejemplo, el grupo NO3 de los nitratos, PO4 de los fosfatos o Na de las sales sódicas). La carga eléctrica del ion es igual a su valencia y es negativa para los no metales y radicales no metálicos (aniones) y positiva para los metales (cationes).

Así, por ejemplo, al disociarse electrolíticamente el cloruro de hidrógeno (un ácido), el cloruro de calcio (una sal) y el hidróxido de sodio (una base) tendremos respectivamente:

HCl  H+ (1 ion positivo) + Cl- (1 ion negativo)

CaCl2   Ca2+ (1 ion positivo) + 2Cl- (dos iones negativos)

NaOH  Na+ (1 ion positivo) + (OH)- (1 ion negativo)

Los iones positivos son más pequeños que los átomos metálicos de los que proceden (por ejemplo, el radio del ion Na+ es sólo muy poco mayor que la mitad del radio del átomo de sodio), mientras que los iones negativos son siempre mayores que los átomos de los no metales a partir de los que se han formado (por ejemplo, el radio del ion Cl- es casi el doble que el radio del átomo de cloro).

Steve August Arrehnius (1859-1927) fue un reconocido científico sueco.

Ionización

La formación de iones se explica por la cesión o admisión de electrones, generalmente en la capa más externa, por parte de un átomo. Es decir, si un átomo X acepta un electrón se rompe el equilibrio eléctrico en que se encontraba, al pasar a poseer una carga negativa más; tendremos así un ion negativo X-. Si el átomo X hubiera aceptado dos electrones estaríamos ante un ion X2-, etcétera.

Por el contrario, si un átomo X cede un electrón pasará a convertirse en un ion positivo, X+, puesto que su número de cargas negativas será entonces inferior en una unidad al número de cargas positivas del núcleo (protones); en el caso de que cediera dos electrones, se tendría el ion X2+, etcétera.

La ionización no es un fenómeno que pueda producirse únicamente a causa de la disociación de un electrólito en disolución. También por efecto del calor, las radiaciones ionizantes o el choque con otras partículas, un átomo puede perder uno o más electrones o bien absorber electrones extraños. Por ejemplo, en las capas altas de la atmósfera (ionosfera), los átomos del aire son constantemente bombardeados por radiaciones solares de alta energía, las cuales les arrancan electrones. Asimismo, los meteoritos, al atravesar la atmósfera a gran velocidad, producen un calentamiento local del aire, ionizándolo a lo largo de su trayectoria.

Un ion se forma cuando una molécula le “cede” electrones a otra.

Los iones presentes en el aire atraen el polvo y las gotitas de agua, y por esta razón se emplean iones para que actúen como núcleos de condensación con el fin de provocar artificialmente la lluvia. En un proceso esencialmente análogo, en las cámaras de ionización la observación de las trayectorias de las partículas atómicas se basa en la condensación que provocan a su paso.

En determinadas condiciones, un gas puede hallarse completamente ionizado, es decir, con todos sus átomos en defecto de electrones; en ese caso se le denomina plasma. Sin embargo, el propio plasma se encuentra en estado neutro, ya que, al hallarse íntimamente mezclados en todo el espacio ocupado, sus electrones y sus iones positivos compensan sus cargas entre sí.

Teoría del octete

Los gases nobles constituyen el grupo 0 de la Tabla Periódica. Las moléculas de estos gases son monoatómicas, ya que la característica más destacada de estos elementos es que sus átomos carecen prácticamente de capacidad para unirse con otros átomos de su misma o de otra especie.

Todos los gases nobles, a excepción del primer elemento del grupo, el helio, poseen ocho electrones en la última órbita. Este hecho llevó a considerar que ésta era la configuración electrónica más estable. Por ello, Lewis introdujo en 1916 la teoría del octete u octeto: “Cuando los átomos reaccionan entre sí tienden a adquirir la estructura electrónica del gas noble de número atómico más próximo.” Sorprendentemente, esta ingeniosa teoría se ajusta muy bien a la realidad, aunque en el momento en que fue propuesta carecía por completo de verdadera justificación teórica.

Los gases nobles son los elementos que, en las condiciones normales de la Tierra, están formados por un solo tipo de átomos.

Nadia Comaneci

Nadia Comaneci nació el 15 de noviembre de 1961 en la ciudad de Onesti, Rumania. Años más tarde se convertiría en, sin dudas, la gimnasta más influyente de la historia del deporte.

Descubierta por quien acabaría siendo su entrenador, Belá Károlyi, cuando tenía solo seis años de edad, empezó a obtener sus primeras victorias en categorías juveniles en 1970. En 1974 ya era campeona juvenil mundial.

En la categoría absoluta, en su primera actuación en competición internacional durante los Campeonatos de Europa celebrados en Skien (Noruega), en 1975, demostró sus excepcionales cualidades, dado que superó con cuatro victorias individuales a la rusa Lyudmila Turishcheva, pentacampeona de Europa. En 1976 triunfó en Nueva York, donde, además de hacerse con la victoria en la Copa América, se convirtió en la primera mujer que realizaba el dificilísimo doble mortal de espaldas en la salida de su ejercicio de asimétricas.

Fue, sin embargo, en los Juegos Olímpicos de Montreal (1976) donde se reveló como un auténtico prodigio de la gimnasia: obtuvo siete máximas puntuaciones (10) y las medallas de oro en las disciplinas de paralelas asimétricas y de barra de equilibrio, así como en la general individual. Sus gráciles vuelos la convirtieron en una popularísima figura del deporte, y en su país fue recibida como una heroína nacional.

 

Comaneci se convirtió, con solo 14 años, en la primera gimnasta de la historia en obtener una calificación perfecta en unos JJOO.

Tras unos años de irregulares resultados en competición, que no le impidieron ganar el Campenato del Mundo de Estrasburgo (1978), obtuvo dos nuevas medallas de oro en los Juegos Olímpicos de Moscú (1980), en suelo y barra de equilibrio, y el segundo puesto en la general individual.

En 1984 se retiró de la competición activa para convertirse en entrenadora del equipo rumano, primero, y del canadiense, después. En 1989 se instaló en Estados Unidos, donde siete años más tarde contrajo matrimonio con el gimnasta estadounidense Bart Conner.

El peso molecular

Peso molecular de un compuesto químico es la suma de los pesos atómicos de los elementos que constituyen la molécula de ese compuesto.

Mediante un ejemplo precisaremos el concepto y mostraremos cómo se calcula el peso molecular de un compuesto (cuando se conoce con certeza su fórmula) a partir de los pesos atómicos de sus elementos constituyentes.

Ejemplo:

1) Hallar el peso molecular del carbonato de calcio, CaCO3.

Escribiremos PM (CaCO3) o simplemente PM para representar el peso molecular del carbonato de calcio y PA(Ca), PA(C) y PA(O) para representar, respectivamente, los pesos atómicos del calcio, el carbono y el oxígeno. Será:

PM= PA(Ca) + PA(C) + 3 PA(O)

Esto es porque la molécula de CaCO3 contiene un átomo de Ca, uno de C y tres de O.

Consultando la tabla de pesos atómicos encontramos que:

PA(Ca) = 40,08

PA (C) = 12,011

PA (O) = 15,999

Por lo tanto,

PM= 40,08 +12,011 +3·15,999 = 100,088

El peso molecular se refiera a la suma de los pesos atómicos de un compuesto.

Determinación experimental de los pesos moleculares

Del concepto de peso atómico se deduce que al considerar las reacciones entre todos los elementos podían encontrase relaciones similares a la relación PC = 3/7 . PSi, con lo que resultaría posible expresar todos los pesos atómicos en función del peso atómico de un elemento cualquiera, que podríamos escoger a voluntad.

Sin embargo, para los químicos de principios del s. XIX el problema era que en general no conocían las fórmulas de los compuestos y por lo tanto no podían estar seguros de si los elementos reaccionaban átomo a átomo o no, con lo cual se hacía imposible establecer con certeza relaciones entre los pesos de sus átomos.

Dalton supuso erróneamente que cuando dos elementos se combinan para dar un compuesto siempre lo hacen átomo a átomo. Así, en el caso del agua pensó que su fórmula era HO y, como había hallado experimentalmente que el hidrógeno y el oxígeno se combinan para formar agua en una proporción ponderal de 1:7 (la verdadera proporción es 1:7,9365, pero este error experimental es comprensible para la época), concluyó que el peso atómico del oxígeno expresado en la escala del hidrógeno es 7 (hoy sabemos que la fórmula del agua es H2O, por lo que el peso atómico del oxígeno, expresado en función del peso atómico del hidrógeno, es realmente 2·7,9365 = 15,873).

El problema de establecer los pesos atómicos de los elementos no pudo así resolverse hasta que se hallaron métodos prácticos para determinar por vía experimental los pesos moleculares de sus compuestos. Los métodos experimentales para la determinación de pesos moleculares son aplicables a sustancias en estado gaseoso y a solutos en disolución. La determinación del peso molecular de un gas se basa en la ecuación de estado de los gases ideales, por lo que es preciso conocer la masa de sustancia gaseosa contenida en un determinado volumen, así como ese mismo volumen y la presión y la temperatura a que se encuentra el gas. Como estas dos últimas variables son directamente medibles, lo que se determina realmente es la masa de la sustancia contenida en un volumen que se puede conocer.

Para conocer el peso molecular de sustancias sólidas se recurre a su disolución en agua o en otro líquido. Toda una serie de propiedades de las disoluciones dependen del número de moléculas que contienen disueltas en un peso dado de disolvente (propiedades coligativas), de manera que es posible calcular el peso molecular del soluto a partir, por ejemplo, del descenso del punto de congelación (crioscopia) o bien del aumento del punto de ebullición (ebulloscopia) de la disolución en relación al punto respectivo del disolvente puro.

 

Para conocer el peso molecular de sustancias sólidas se recurre a su disolución en agua o en otro líquido.

Microsoft Excel

El cálculo matemático ha sido una de las disciplinas ante las cuales el hombre ha sentido la necesidad de abastecerse de tecnologías que facilitasen su resolución y, ya desde la antigüedad, instrumentos como el ábaco han ido restando complejidad al acto de “hacer cuentas”, elemento crucial en la conformación de las sociedades modernas. A partir del siglo XXI, un software que ha ayudado mucho al hombre y sus cálculos matemáticos es Microsoft Excel, del cual hablaremos en este artículo.

Hojas de cálculo

Las hojas de cálculo, al permitir una serie de relaciones lógicas entre cifras según las cuales la disminución o aumento de un valor provoca la variación automática de otros valores a él subordinados, es el paso decisivo en favor de la simplificación de la matemática contable. A través de un lenguaje simple que permite la fácil introducción de fórmulas y funciones, programas como Microsoft Excel convierten la tarea de llevar al día la contabilidad de un negocio o bien el recuento de un stock en un verdadero juego de niños.

La interfaz de Excel

Una hoja de cálculo de Microsoft Excel está formada por una o más cuadrículas de extensión agrupadas en un libro, de modo que puedan englobarse distintas tablas referentes a un mismo asunto en un solo archivo.

Cada hoja de nuestro libro es accesible a través de las pestañas situadas en la parte inferior izquierda de la pantalla, justo encima de la barra de estado. Podemos nombrar las distintas hojas o bien añadir hojas nuevas mediante la pulsación del botón derecho del ratón sobre una de las pestañas existentes, que despliega un sencillo menú contextual.

Determinada la estructura de hojas de nuestro libro, podemos proceder al rellenado de la cuadrícula de cada una de las mismas. Pulsando sobre una casilla cualquiera podemos teclear un valor numérico o bien una cadena de texto. A continuación, y al igual que ocurría con Word, con la barra de formato podemos moldear esta información.

Introducción de funciones en una hoja de cálculo

La verdadera utilidad de una hoja de cálculo no radica en la posibilidad de plasmar en formato tabla una serie de datos y cifras, sino en la capacidad del programa de hacer cálculos que relacionen estas cifras y de que estas fórmulas se muestren sensibles a la modificación de los valores de los que parten. Esto se consigue gracias a la introducción de funciones, accesible a través de la opción “Función…” del menú Insertar o bien por medio del icono de función de la barra estándar. Estos parámetros dan paso a un cuadro de diálogo en el que se pide al usuario que escoja qué tipo de cálculo desea realizar entre un extenso inventario de operaciones matemáticas. Una vez decidido, un segundo cuadro nos permite introducir que tipo de intervalo de celdas van a estar envueltas en la operación matemática, dándonos también la posibilidad de marcar por medio del ratón de qué celdas de la cuadrícula se trata.

Las fórmulas pueden introducirse asimismo de forma manual en los campos en los que deben figurar sus resultados, tecleando en los mismos la fórmula a realizar precedida por el símbolo igual (por ejemplo, para sumar los valores de las celdas A4 y A5 y que el resultado figure en la celda A6, deberíamos teclear en esta última celda = A4 + A5).

Las bases de datos

A lo largo de nuestra vida, por motivos diferentes y casi sin darnos cuenta trabajamos con montones de bases de datos, desde colecciones de discos o listines telefónicos a inventarios de calificaciones académicas o listas de elementos relacionadas con casi cualquier ámbito laboral; es común la necesidad de tener ordenados, según distintos criterios, e interconectados entre sí una serie de datos. Los programas de gestión de bases de datos, con Microsoft Access como claro estándar, permiten precisamente la correcta gestión de los datos de esta naturaleza.

 

Logo de Excel

Estructura de una base de datos

La fuente principal a partir de la cual se vertebra una base de datos, como se extrae de lo que acabamos de decir, es una o varias relaciones entre elementos, o lo que es lo mismo, uno o varios listados que vinculen dos o más datos.

Una tabla en la que se encuentren los nombres de nuestros amigos, la dirección y el teléfono de cada uno de ellos constituye el esqueleto de una base de datos, por ejemplo.

Por todo ello, el requisito principal para la constitución de una base de datos, y por tanto su elemento indispensable, es la tabla.

Una vez introducidas en el programa una o más tablas (de forma manual o bien importando una tabla desde otro programa de la suite de Office), podemos modificar los criterios de ordenación de sus campos y la cantidad de los mismos que deseamos que aparezcan en pantalla creando una consulta. Esta función es también útil para conectar entre sí dos o más tablas con algún dato en común.

Establecidas estas relaciones y determinados los órdenes por los que se regirá la información, podemos conseguir vistosas presentaciones para impresora, o bien crear páginas intuitivas para la introducción de nuevos registros o modificación de los registros existentes por medio de los denominados formularios.

Estas cuatro categorías, junto con las macros y los módulos (que sirven, respectivamente, para englobar una serie de procedimientos avanzados en una única acción y para la incorporación a la base de instrucciones en lenguaje Visual Basic) constituyen los medios que permitirán obtener el mayor rendimiento de una base de datos.