Curando el contenido

Hola amigo, como se pasa el tiempo, ya estamos a punto de terminar nuestro curso de encontrando tesoros y en este post que espero no sea el ultimo de este blog.

les enzeñare precisamente a ese a pulir nuestros tesoros es decir a curar nuestros contenidos, ya sabemos buscar pero ahora necesitamos seleccionar el mejor contenido de acuerdo a su relevancia y que mejor que mostrarselo a otras personas mediante la herramienta de Scoop it.


Es por ello que tambien quiero compartirles mi url de scoop it para que aprendan un poco más sobre mi tema favorito el derecho informático.



Solo dos cosas importantes en cuanto al curado de contenidos.

Existe una piramide que mide la relevancia del contenido encontrariamos lo siguiente.



Encontramos el curar como lo más importante en el contenido de alli para abajo seria producir, comentar, compartir, y ver aunque se lee mejor consultar. entonces podemos ver como se clasifica la información de acuerdo a los pasos que esta sigue. en ultimas en el curado encontramos la mejor información.


Tambien existen cinco formas de curación del contenido.

1. la agregación, el acto de reunir la información más relevante sobre un tema específico en un mismo lugar.

2. la destilación, una forma de realizar la curación de contenidos en un formato más simple, donde solo son compartidas las ideas más relevantes.

3. la elevación, con la misión de identificar tendencias en pequeñas porciones de información compartidas online, como por ejemplo lo tweets en Twitter.

4. el mashup, como la unión de contenidos curados para crear un nuevo punto de vista.

5. la cronología, atendiendo a la reunión de información histórica organizada sobre la base del paso del tiempo para la evolución en la percepción de un determinado tema.


Gracias por leer.

0 comentarios:

Aprende como preguntarle al buscador Google Acádemico.



Bien llego la hora de aprender a preguntarle a Google, pero no a cualquier Google, si no a su aplicación especializada en documentos académicos.

Supongamos que necesitamos consultar un tema en especifico que nos hayan encargado investigar. ¿a dónde recurriríamos? la mayoría diría que a Google, pero bueno en Google no podremos encontrarlo todo (de buena calidad), seguramente encontraremos resultados con referencias a páginas como el rincón del vago o Wikipedia (de dudosa reputación). entonces no es muy conveniente realizarlo de esta manera.

Gracias a Dios contamos con una buena herramienta que también nos ofrece Google .

Les presentó a Google académico, pueden acceder a el mediante el siguiente enlace: https:scholar.google.es/

Ahora a lo que vinimos, ¿Cómo le preguntamos a Google Académico?

En primer lugar lo haríamos como si le preguntáramos a otra persona.

Mi pregunta es...





























Como podemos observar en el primer resultado nos aparecen varias páginas y aquí es importante identificar algunas cosas.

  • Los resultados que nos ha arrojado la búsqueda son en su mayoría, documentos tipo PDF o libros.
  • Los resultados son de dominios como unirioja.es que es la Universidad de la Rioja de España.


Hasta aquí todo muy bien, pero me parece que el resultado no es muy exacto, vamos a probar la búsqueda avanzada para explicarte algunas interesantes funciones.



Ahora apliquemos lo aprendido.


Como se observa en la imagen superior, se aplican todas las palabras que nos pueden servir en nuestra búsqueda, sin embargo aplicar tantas palabras claves, puede no ser tan eficaz ya que se reduce enormemente el rango de los documentos que podamos encontrar.

" La búsqueda se vuelve muy especfica y puede llevarnos a una búsqueda erronea."

De esta forma concluimos con la frase de que a veces "menos es más" y para ello, se ha restructurado la búsqueda a dos terminos, arrojandonos un buen resultado.


Fin...


0 comentarios:

Web Superficial y Web "Profunda"


Web Superficial.


Cuando hablamos de la web  superficial, nos referimos a todo el conjunto de sitios web que pueden ser indexados por los búscadores convencionales como google, bing, yahoo entre otros, mediante una simple petición en los formularios de búsqueda  por parte del usuario.

Sus caracteristicas principales son las siguientes:

  • Su información no se encuentra en bases de datos.
  • Cualquier persona puede acceder a ella.
  • Por lo general, son páginas web estaticas es decir, que tienen una url fija.
Estas caracteristicas son las que permiten a los buscadores encontrarlas facilmente.

Web Profunda.


Es el termino utilizado para referirse a la páginas que no estan catalogadas en los buscadores comunes, debido a que tienen ciertas caracteristicas tecnicas que no permiten o más bien, dificultan la tarea que tienen los buscadores para indexarla.

"El término Web invisible (invisible Web) fue introducido a mediados de los años 90 por Jill Ellsworth y Matthew Koll y popularizado por Intelliseek en 1998 mediante el servicio invisibleweb.com"
Veamos pues cuales son:

  • Información generalmente contenida y accesible mediante bases de datos.
  • URLs dinamicas que se realizan por parte del usuario. (ASP, PHP, etc)
  • No son de libre acceso (Login requerido).
Este grafico nos muestra la pequeña cantidad que puede ser indexada por los buscadores y la otra parte que queda oculta,  la llamada web invisible.



Sherman y Price identifican cuatro tipos de contenido de la web invisible.

Web opaca (theopaque Web), la Web privada (the private Web), la Web propietaria (the proprietary Web) y la Web realmente invisible (the truly invisible Web).

La web opaca 

Esta compuesta por páginas que podriamos encontrar en los buscadores pero una parte de ella no.

Por los siguiente motivos.

  • Por economia los buscadores no indizan todo el sitio web. 
  • Los buscadores limitan el numero de resultados por lo general entre 200 y 1000.
  • URLs desconectadas, es decir que en su contenido no hay ninguna referencia a otro sitio web o página.

Web Privada.


Los propietarios del sitio web aplican algunos parametros a sus sitios que impiden que los buscadores puedan indexarlos facilmente.

  • Información solo para usuarios registrados
  • Archivos como robot.txt y noindex.txt evitan que los buscadores puedan encontrarlas.

Web Privada.

Generalmente solo se puede acceder a ella mediante un registro previo aunque sea gratuito.

Web Realmente Invisible

Son sitios generados dinamicamente es decir que se muestran solo por petición del usuario, no por un buscador. Además cuentan con limitaciones tecnicas para los buscadores dificultando su tarea.

Según LLuis Codina el termino invisible no es adecuado para referirse a este tipo de sitios web que no pueden ser encontrados por los buscadores el prefiere llamarlos no indizable. Del mismo modo estoy de acuerdo con este autor ya que este tipo de webs en algun momento llegaran a ser indizables por los buscadores, solo es cuestion de tiempo de que se mejore la tecnologia u otras personas permitan que su información sea más accesible.


Otro de los puntos que me gustaria hacer referencia y que no se encuentran en las guias del curso son las llamas páginas de la Deep Web o web profunda que son sitios encriptados mediante la dirección .onion que no son accesibles mediante un navegador convencional y mucho menos por un buscador.

Para ello hace falta hacer uso del navegador TOR que permite acceder a ellas.

Entorno a este tipo de web hay una gran cantidad de información.

Por ejemplo:

  • Silk Road
  • Los proyectos The Onion Router, (Tor), ideado en sus orígenes por el U.S. Naval Research Laboratory, software libre cuyo objetivo principal es el desarrollo de una red de comunicaciones distribuida de baja latencia y sobrepuesta a la red internet en la que no se revela la dirección IP, es decir, la identidad de sus usuarios, manteniendo además la integridad y la ocultación de la información que transita por ella, (existe la versión para móvil denominada Orbot) y The Freenet Project de características similares.
  • El sistema operativo Tails, cuyo objetivo es la preservación de su intimidad y el anonimato como el buscadorDuckduckgo.
  • Shodan, buscador especializado en la localización de vulnerabilidades en la red relacionadas con las organizaciones.
  • Los programas de software libre para redes P2P descentralizadas como GNUnet o la japonesa Perfect Dark(P2P).

El gran inconveniente de estos programas es que aprovechando la posibilidad de publicar material amparados por el anonimato, algunos de sus usuarios realizan acciones ilícitas y delictivas como la distribución de pornografía infantil y un largo etcétera de actividades ilegales.







0 comentarios:

Suscribete al feed de la Pangea informática.

Hola amigos esta es una fantastica noticia para todos los seguidores del blog y es que desde ahora el blog esta suscrito al servicio de feedburner para que esten al tanto de cada nueva entrada que se publique.

Asi de esta forma, tu lector de feeds te avisara cada vez que publiquemos.


(Click en el Logo de FeedBurner)

Necesitas un lector de feed.

Aquí encontraras unos muy buenos para que te los descargues.

FeedDemon: Un popular lector de feeds para estar al tanto del contenido del Blog. Es gratuito.



Link FeedDemon 4.5 


Este tambien es otro excelente lector de feeds. 


Saludos y aqui nos vemos ;).






Métodos de Búsqueda



La búsqueda de información no es una tarea fácil y menos cuando no conocemos las herramientas o las posibilidades que nos ofrecen los buscadores, tales como la búsqueda por Palabras Claves o la Búsqueda Avanzada.


En esta entrada quiero compartirles una presentación que he creado con las herramientas de la Web 2.0 como es la ofimática online que nos ofrece Google, para explicarles como funciona la Búsqueda Avanzada y como nos puede ser útil al momento de buscar información.


La Búsqueda Avanzada es una opción que nos permite filtrar y ser más precisos con nuestro resultado.







3 comentarios:

Herramientas de Busqueda [Mural Padlet]



La cantidad de información que existe en Internet es inmensa y esta puede llegar a ser de miles de TB (TeraBytes = 1000 GB) al año, es por ello que se ha hecho necesario la creación de herramientas de búsqueda para poder organizar y acceder a esta información.



En el siguiente mural (interactivo) encontraran una explicación sobre estas herramientas que pueden ser muy útiles a la hora de buscar información. las herramientas que se explican a continuación son las siguientes.



  • Buscadores
  • Metabuscadores
  • Directorios
  • Guías Temáticas.
  • Software de Búsqueda Especializado

Muro de Padlet sobre Herramientas de Búsqueda de Información


Created with Padlet

Puedes dejarme un comentario si te ha gustado el post.



2 comentarios:

Infoxicación

¿Qué es la Infoxicación?

El termino fue acuñado por primera vez por Alfons Cornella en 1996 para significar la sobrecarga de información que existe en internet y que perturba al usuario, por qué este no la puede gestionar eficazmente, lo cual le produce una gran angustia.

El termino infoxicación proviene de la unión de dos palabras intoxicación + información.


"La infoxicación es el exceso de información. Es, pues, lo mismo que el information overload. Es estar siempre "on", recibir centenares de informaciones cada día, a las que no puedes dedicar tiempo. Es no poder profundizar en nada, y saltar de una cosa a la otra. Es el "working interruptus". Es el resultado de un mundo en donde se prima la exhaustividad ("todo sobre") frente a la relevancia ("lo más importante")."

Alfons Cornella


Humberto Eco, dice que "La inmensa cantidad de cosas que circula es peor que la falta de información. El exceso de información provoca amnesia. El exceso de información es malo" ademas de esto que la información que encontramos en internet no esta jerarquizada, todo llega alli al antojo del que la produce, por lo tanto esto genera un problema ya que existe mucha información pero hay una falla al momento de encontrar lo que realmente buscamos.


Tambien existe un grave problema y es en cuanto a la calidad de la información que encontramos, lo que se conoce como information overload, una cantidad de información sin contenido importante y que lo unico que produce es agotamiento y perdida de tiempo al usuario.

Me gustaria que vieran la conferencia de Clay Shirky que comparto acontinuación.


Clay Shirky Shirky.com / Conference Web 2.0 (2010).



En su conferencia nos habla de que el problema no es que exista demasiada información en internet, sea relevante o no para nosotros, el problema es el filtrado de esta información por qué si este falla no estaremos encontrando lo que en verdad nos interesa.

Me gusta mucho la analogia que hace para evidenciar este problema y es el SPAM, esa publicidad molesta que llega a nuestro correo y que necesariamente tenemos que estar eliminando, pero podriamos evitarnos este problema si usaramos un filtro que identificara estos mensajes (spam) y los eliminara automaticamente.

¿Cual seria una solución al problema de la Infoxicación?

Pienso que una posible solución a este problema, seria tener una actitud critica frente a la información que recibimos, es decir no ocuparnos de todo lo que nos llega, distinguir entre lo que nos puede ser util y lo que no o como se dice "No comer entero" por qué se puede correr el riesgo de indigestarnos informaticamente. jeje es un decir no más.


Fuentes:

http://alfonscornella.com/thought/infoxicacion/





2 comentarios:

Bienvenidos a mi Blog

Hola a todos, me presento mi nombre es Bryan López Chaparro estudiante de Derecho. vivo en Bogotá con mi familia y actualmente estoy aprendiendo en el curso de MiriadaX, Encontrando Tesoros, el cual podrias ingresar Aquí.

Areas de Interes:



  • Derecho.
  • Investigación.
  • Conocimiento Libre.
  • Informática.
  • Tecnologia.
  • Deportes Extremos.

Expectativas respecto al Curso:



  • Aprender a manejar las herramientas para optimizar mis busquedas en Internet.
  • Mejorar mis trabajos de investigación
  • Conocer las formas como se adquiere información de calidad y aprender a filtrarla.






0 comentarios: