viernes, 12 de noviembre de 2010

Impresiones

Nunca me había planteado vivir en España hasta el día de poder hacer allí una carrera que me encantaba. No conocía muchas cosas sobre este país pero estaba decidida a empezar una nueva vida y conseguir salir adelante costara lo que me costara.
En mi pueblo y en mi país nunca se ha tenido de España una buena visión, es decir, siempre se tiene en cuenta que ellos fueron los que descubrieron América, los que nos encontraron y nos “civilizaron”… Pero la verdadera historia es que nos trataron como seres inferiores sólo por el motivo de ser de otra cultura, sólo porque ellos tenían armas y habían “evolucionado” más que nosotros, o eso se creían. No supieron apreciar nuestra cultura indígena y por ello quisieron imponernos la suya porque sabían que no podíamos hacer mucho para oponernos. Además, como todos sabemos, Colón se dirigía hacia las Indias y se encontró con un nuevo continente, aunque murió sin saber que no eran las Indias sino un nuevo continente. El caso es que todo hubiera sido distinto si los españoles no nos hubiesen descubierto o simplemente si no nos hubiesen impuesto su lengua y su religión…


¿Qué pensáis sobre la actuación que tuvieron los españoles cuando descubrieron América? ¿Y sobre la reacción de los pueblos autóctonos?


No hay comentarios:

Publicar un comentario