[Academia] Fwd: Contribución al debate de la relevancia del Google Académico comparado con Web of Science :::: RE: LSE Impact Blog: "Google Scholar es una seria alternativa a Web of Science"

Juan Manuel Mancilla Díaz jmmd en unam.mx
Vie Mayo 5 19:28:44 CDT 2017


Esperando sea de su interés....

Buen fin de semana
Juan Manuel Mancilla
---------- Forwarded message ----------
From: SCIELO MEXICO <scielo en dgb.unam.mx>
Date: 2017-04-04 10:45 GMT-05:00
Subject: Contribución al debate de la relevancia del Google Académico
comparado con Web of Science :::: RE: LSE Impact Blog: "Google Scholar es
una seria alternativa a Web of Science"
To: "scielo en dgb.unam.mx" <scielo en dgb.unam.mx>


*reenvío comentarios del Dr. Dávalos Sotelo (INECOL-Xalapa):*


*Contribución al debate de la relevancia del Google Académico comparado con
Web of Science*

Texto escrito por Raymundo Dávalos Sotelo (3 de abril de 2017)

Estimado Antonio:

Recientemente escribí dos artículos relacionados con el tema que destacas
en esta nota referente a la relevancia del portal de Google Académico
(o *Google
Scholar* – *GS* – como se conoce en inglés) como un elemento válido para
citación de documentos científicos y técnicos en comparación con el índice
*JCR* de *Web of Science* (*WofS*) de la empresa Thomson Reuters (hoy de
Clarivate Analysis). El argumento central de los dos artículos (Dávalos
Sotelo, 2015a y 2015b) es que las citas generadas por *GS* tienen valor
equivalente a las del *JCR;* esto, debido a que la base de datos de *WofS*
es un subconjunto de la base más amplia de *GS*. Existe una regularidad
estadística entre las citas generadas en ambas bases de datos, es decir, si
se conoce la cifra de citas de una base, se puede derivar la de la otra con
un alto grado de precisión estadística, por lo tanto, no es indispensable
consultar la base de datos comercial para valorar la influencia de los
documentos científicos, si se cuenta con la información de la base de datos
de libre acceso *GS*.

Estos artículos se escribieron con la intención de aportar puntos de vista
al debate del acceso abierto de la información científica, debate que se
está dando ampliamente en América Latina y al cual *SciELO* ha contribuido
de manera preponderante.

Recibe un cordial saludo.



*Dr. Raymundo Dávalos Sotelo*

Editor *Madera y Bosques*

Instituto de Ecología, A.C.

Xalapa, Ver.

Tel: +52(228) 842-1835; (228) 842-1800 ext. 6106

Cel: 2288 240289

e-mail: mabosque en inecol.mx







*Referencias*

Dávalos-Sotelo, Raymundo. (2015a). Una forma de evaluar el impacto de la
investigación científica. *Madera y bosques*, *21*(spe), 7-16. Recuperado
en 03 de abril de 2017, de http://www.scielo.org.mx/
scielo.php?script=sci_arttext&pid=S1405-04712015000400001&lng=es&tlng=es.

Dávalos Sotelo, Raymundo. (2015b). Sobre las formas de evaluación de las
revistas científicas. *Madera y bosques*, *21*(3), 07-15. Recuperado en 03
de abril de 2017, de http://www.scielo.org.mx/scielo.php?script=sci_arttext&
pid=S1405-04712015000300001&lng=es&tlng=es.



*Resúmenes de los artículos:*

Dávalos-Sotelo, Raymundo. (2015a).
Madera bosques vol.21 no. spe Xalapa dic. 2015

*Una forma de evaluar el impacto de la investigación científica*

*One way to evaluate the impact of scientific research*

*Raymundo Dávalos-Sotelo1*

 *1* *Instituto de Ecología, A.C., Red de Ambiente y Sustentabilidad,
Xalapa, Ver.* raymundo.davalos en inecol.mx

*Resumen*

El criterio más usado internacionalmente para evaluar las revistas
científicas se basa en el valor del Factor de Impacto (*FI*) generado de la
base de datos *Journal of Citation Reports* (*JCR*) publicado anualmente en
la plataforma *Web of Science* de *Thomson Reuters.* El argumento central
de este artículo es que la forma más completa de evaluar el trabajo de los
científicos es a través de métricas de fácil acceso y de alcance general
como el índice *h* de Hirsch a partir de la base de datos de *Google
Académico*, más algunas otras consideraciones. Se reconoce que, si se trata
de medir el impacto de la investigación en ámbitos meramente académicos, el
Factor de Impacto (*FI*) del *JCR* es el medio más adecuado, pero si se
trata de medir el impacto de la investigación en el mundo real, entonces se
deben usar otras métricas y criterios de valoración. Aquí se sugiere que
con la información incluida en la plataforma de *Google Scholar* se refleja
de una manera más natural el verdadero alcance de las publicaciones entre
un público usuario más heterogéneo. Para los países en vías de desarrollo,
se destaca que es más importante definir sus políticas de apoyo a la
investigación que el buscar la mayor visibilidad internacional o relevancia
global de sus revistas. Se ha demostrado aquí que el mensaje es lo
importante y no el medio. Sin embargo, las revistas científicas merecen la
mayor de las atenciones por parte de las instancias responsables de las
ciencias en los países en vías de desarrollo.

*Palabras clave:* cienciometría, factor de impacto, *Google Scholar*, índice
 *h*, *Thomson Reuters*.

*Abstract*

The internationally most widely used criterion to evaluate scientific
journals is based on the value of the impact Factor (*FI*) generated from
the *Journal Citation Reports* (*JCR*) database published annually on the *Web
of Science* platform from *Thomson Reuters*. The central argument of this
article is that the most complete form of evaluation of the work of
scientists through metrics of easy access and general scope as the index *h*
 of Hirsch from the database of *Google Scholar*, plus some other
considerations. The author recognizes that if the goal to achieve is to
measure the impact of purely academic research, the *JCR* impact Factor (
*FI*) is the most appropriate means, but if the objective is to measure the
impact of research in the real world, then other metrics and assessment
criteria should be used. Here it is suggested that the true relevance of
the publications is reflected in a more natural way among a heterogeneous
user audience with the information included in the *Google Scholar* platform.
For developing countries, the paper highlights that it is more important to
define their policies of support for research than to seek greater
international visibility or global relevance of their journals. It has been
shown here that the message is the important subject matter and not the
means of publication. Nevertheless, scientific journals do deserve indeed
the greatest attention by the responsible authorities of the sciences in
developing countries.

*Keywords:* scienciometrics, impact factor, *Google Scholar*, h index, *Thomson
Reuters*.

Dávalos Sotelo, Raymundo. (2015b).
Madera bosques vol.21 no.3 Xalapa sep./dic. 2015

*Sobre las formas de evaluación de las revistas científicas*

*On the evaluation methods for scientific journals*

*Raymundo Dávalos Sotelo1*

 *1* *Red de Ambiente y Sustentabilidad. Instituto de Ecología, A.C.
Xalapa, Veracruz, México.* raymundo.davalos en inecol.mx

*Resumen*

En la actualidad hay un enorme interés y amplias discusiones en el medio
académico para encontrar métodos eficaces de evaluación del impacto del
trabajo de los científicos. Se argumenta aquí que el impacto de la
información generada por los investigadores tiene relevancia más allá de
una mera contabilidad de citas a los productos académicos. Sin embargo,
sigue existiendo la necesidad de valorar de una manera más inmediata el
efecto o la influencia del trabajo científico. El argumento central de esta
contribución es que el número de citas generado por el motor *Google
Scholar (GS)* representa una medida más precisa y completa del trabajo de
los investigadores individuales que el Factor de Impacto *FI*. Asociado a
*GS* existe el concepto del Índice *h5*. Para ver si hay alguna regularidad
en la proporción de citas entre las dos bases de datos, se hizo una
búsqueda de citas para artículos de autores considerados representativos
para *Madera y Bosques:* Williams-Linera *et al.* y Yáñez-Arancibia *et al.*
 por ser de los más citados. El valor del coeficiente de determinación
demuestra la extraordinaria regularidad de esta relación. Para el caso de
la valoración de las revistas, se argumenta que el índice *h* es más
apropiado que el *JCR*. Reiteramos que el impacto real del trabajo de
investigación rebasa el ámbito del trabajo académico y se refleja en el uso
de la información en áreas alejadas de los círculos académicos, pero que
tienen amplia repercusión en la sociedad como, por ejemplo, la información
requerida para definir las áreas naturales protegidas.

*Palabras clave:* *Google Scholar,* índice *h5*, índice *h*, *JCR*, *Web of
Science.*

*Abstract*

Today there is a huge interest and wide discussions in the academic world
to find effective methods of evaluation of the impact of the work of the
scientists. It is argued here that the impact of the information generated
by researchers has relevance beyond a mere accounting of citations to
academic products. However, there remains the need to assess in a more
immediate way the effect or influence of scientific work. The central
argument of this contribution is that the number of citations generated by
the engine *Google Scholar (GS)* represents a far more accurate and
complete the work of individual researchers that *FI* impact Factor.
Associated with *GS,* there is the concept of index *h5*. To see if there
are any regularity in the proportion of citations between the two
databases, a search for citations was made to articles for authors
considered representative: Williams-Linera *et al.* and Yáñez-Arancibia *et
al.* for being the most cited. The value of the coefficient of
determination shows the extraordinary regularity of this relationship. In
the case of the valuation of the journals, it is argued that the index *h* is
the most appropriate to the *JCR.* We reiterate that the real impact of the
research work is beyond the scope of academic work and is reflected in the
use of information in remote areas of academia, but that have broad impact
on society as for example, the information required to define the protected
natural areas.

*Keywords:* *Google Scholar,* index *h5*, index *h*, *JCR*, *Web of Science*





*De:* SCIELO MEXICO [mailto:scielo en dgb.unam.mx <scielo en dgb.unam.mx>]
*Enviado el:* lunes, 3 de abril de 2017 05:37 p. m.
*Para:* scielo en dgb.unam.mx
*Asunto:* LSE Impact Blog: "Google Scholar es una seria alternativa a Web
of Science"





*Anne-Wil Harzing** , profesora en Middlesex University, Londres, expone la
siguiente argumentación en defensa del uso de Google Scholar y el software
Publish or Perish para el análisis de citación: *



Publicado en : http://blogs.lse.ac.uk/impactofsocialsciences/2017/
03/16/google-scholar-is-a-serious-alternative-to-web-of-
science/?subscribe=success#blog_subscription-2
Google Scholar is a serious alternative to Web of Science
<http://blogs.lse.ac.uk/impactofsocialsciences/2017/03/16/google-scholar-is-a-serious-alternative-to-web-of-science/>

************************************************************
**************************************************************

• Los bibliómetras y autoridades universitarias siguen confiando
exclusivamente -o casi- en la base de datos Web of Science (antes ISI,
luego de Thomson Reuters y ahora de Clarivate Analytics) para la evaluación
del impacto medido en citas (análisis de citación)


• Las métricas generadas por Google Scholar han sido desestimadas por su
cobertura "demasiado generosa", esto es, por considerar documentos y
revistas de muy distinta índole y sin utilizar filtros con criterios de
calidad académica



• Google Scholar argumenta que esto no es así y que sólo indexa
publicaciones académicas (  “we work with publishers of scholarly
information to index peer-reviewed papers, theses, preprints, abstracts,
and technical reports from all disciplines of research
<https://scholar.google.com/intl/en/scholar/publishers.html>.” )



• Ciertamente, algunas citas no académicas se pueden colar, tales como
manuales del estudiante, guías de la biblioteca o notas editoriales. No
obstante, estos defectos incidentales no afectan a métricas de citas tan
robustas como el índice h.



• Por ello, aunque puede haber alguna sobreestimación del número de citas
no académicas en Google Scholar, para muchas disciplinas esto es preferible
a la subestimación muy significativa y sistemática de las citas académicas
en WoS o Scopus.


• Además, este tipo de citas es contabilizada para todos los documentos y
títulos de la fuente de datos, por lo que la comparación es válida.


• WoS, por su parte, mantiene un sesgo favorable a la ciencia publicada en
inglés y en revistas norteamericanas.


•* Las ciencias sociales y humanidades están en desventaja frente las
ciencias exactas y naturales*. Butler (2006) analizó la distribución de la
producción de publicaciones por campo para las universidades australianas
entre 1999 y 2001. Encontró que entre el 69.3% y 84.3% de los artículos
producidos en las áreas de ciencias químicas, biológicas, físicas y médicas
se publicaron en revistas indizadas en WoS; mientras que sólo fue así para
el 4,4% al 18,7% de los artículos en áread de ciencias sociales como
administración, historia de la educación y las artes. Muchas revistas de
alta calidad en el campo de la economía y los negocios no están incluidas
en WoS. Sólo entre el 30% y el 40% de las revistas de contabilidad,
mercadotecnia, administración están enumeradas en la lista Journal Quality
List <http://www.harzing.com/resources/journal-quality-list>elaborada por
la autora de este comentario (una lista ya de por sí muy selectiva según
ella misma lo comenta) están inlcuidas en WoS. No hay duda de que - en
promedio - las revistas incluidas en WoS se perciben como de mayor calidad.
Sin embargo, hay un número muy importante de revistas indexadas que no
están incluidas en WoS que tienen un índice h más alto que el promedio.

•* WoS tiene una cobertura muy limitada de publicaciones que no son
revistas:* en segundo lugar, incluso en la búsqueda de referencia citada,
WoS sólo incluye citas en revistas indizadas en WoS. En la función de
búsqueda general, ignora completamente todas las publicaciones que no están
en las revistas listadas en WoS. Como resultado, una gran mayoría de las
publicaciones y citas en las ciencias sociales y humanidades, así como en
la ingeniería y la informática, se pasan por alto. En las ciencias sociales
y las humanidades esto se debe principalmente a que ignora por completo de
libros, capítulos de libros y publicaciones en otros idiomas que no sean el
inglés así como documentos en revistas no pertenecientes a WoS. En la
ingeniería y la informática, esto se debe principalmente a la omisión de
los *proceedings*. WoS ha introducido recientemente los *proceedings* en su
base de datos. Sin embargo, no proporciona detalles sobre qué *proceedings*
están cubiertos más allá de enumerar algunas disciplinas que si están
cubiertas. No pude encontrar ninguna de mis propias publicaciones en los
*proceedings*. Como resultado, WoS subestima seriamente tanto el número de
publicaciones y el número de citas para los académicos en las ciencias
sociales y humanidades, así como en la ingeniería y la informática.

•* Los errores de Google Scholar han sido exaherados . *Peter Jacsó,
destacado académico en ciencias de la información y bibliotecología, ha
publicado varios artículos bastante críticos sobre Google Scholar (por
ejemplo, Jacsó, 2006a y 2006b). Documentos como  “Dubious hit counts and
cuckoo’s eggs
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610659201>” y
“Deflated,
inflated and phantom citation counts
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610675816>” han
hecho que decanos, autoridades académicas y comisiones evaluadoras tengan
base para considerar que Google Scholar proporciona datos no confiables.
Sin embargo, el grueso de la crítica de Jacsó está nivelada en el
inconsistente número de resultados de Google Scholar para búsquedas por
palabra clave, que no son relevantes para las búsquedas de autores y
revistas que la mayoría de los académicos utilizan con Publish or Perish
<http://www.harzing.com/resources/publish-or-perish> . Para este tipo de
búsquedas, son importantes las siguientes advertencias:

-   *Las métricas de citas son robustas e insensibles a errores ocasionales*:
la mayoría de las métricas utilizadas en Publish or Perish
<http://www.harzing.com/resources/publish-or-perish> son bastante robustas
e insensibles a errores ocasionales, ya que generalmente no cambian el
h-index o g-index y solo tendrán un impacto menor en el Número de citas por
artículo. No hay duda de que el análisis automático de Google Scholar
ocasionalmente proporciona resultados absurdos. Sin embargo, estos errores
no parecen ser tan frecuentes o tan importantes como lo implican los
artículos de Jacsó. Además, tampoco no afectan mucho los resultados de las
consultas por autor o revista, si es que lo hacen.
    *El análisis de Google Scholar ha mejorado significativamente*: Google
Scholar también ha mejorado significativamente su análisis desde que le
señalaron sus errores. Sin embargo, muchos académicos siguen refiriéndose a
los artículos de 2006 de Jacsó como argumentos convincentes contra
cualquier uso de Google Scholar. Yo diría que esto es inapropiado. Como
académicos, estamos conscientes de que todos nuestros resultados de
investigación incluyen un cierto margen de error.
    *Los errores de Google Scholar son aleatorios y no sistemáticos*: lo
más importante es que los errores son aleatorios en lugar de sistemáticos.
No tengo ninguna razón para creer que los errores de Google Scholar
identificados en los artículos de Jacsó son algo más que aleatorios. Por lo
tanto, no suelen beneficiar o perjudicar a académicos o revistas
individuales.
    *ISI y Scopus tienen errores sistemáticos de cobertura*: en cambio, las
bases de datos comerciales como WoS y Scopus tienen errores sistemáticos,
ya que no incluyen muchas revistas en ciencias sociales y humanas, ni
tampoco tienen una buena cobertura de conferencias, libros o capítulos de
libros. Por lo tanto, aunque siempre es una buena idea utilizar múltiples
fuentes de datos, rechazar a Google Scholar debido a presuntos errores de
análisis no es racional. Tampoco es racional asumir que WoS está libre de
errores simplemente porque cobra altas tarifas de suscripción.

************************************************************
**************************************************************

Publicado en : http://blogs.lse.ac.uk/impactofsocialsciences/2017/
03/16/google-scholar-is-a-serious-alternative-to-web-of-
science/?subscribe=success#blog_subscription-2
Google Scholar is a serious alternative to Web of Science
<http://blogs.lse.ac.uk/impactofsocialsciences/2017/03/16/google-scholar-is-a-serious-alternative-to-web-of-science/>
Share this post:

*Many bibliometricians and university administrators remain wary of Google
Scholar citation data, preferring “the gold standard” of Web of Science
instead. **Anne-Wil Harzing**, who developed the Publish or Perish software
that uses Google Scholar data, here sets out to challenge some of the
misconceptions about this data source and explain why it offers a serious
alternative to Web of Science. In addition to its flaws having been
overstated, Google Scholar’s coverage of high-quality publications is more
comprehensive in many areas, including in the social sciences and
humanities, books and book chapters, conference proceedings and non-English
language publications.*

Publish or Perish <http://www.harzing.com/resources/publish-or-perish>
uses Google
Scholar
<http://www.harzing.com/resources/publish-or-perish/tutorial/google-scholar> as
one of its data sources
<http://www.harzing.com/resources/publish-or-perish/manual/using/data-sources>
(the
other being Microsoft Academic
<http://www.harzing.com/blog/2016/06/microsoft-academic-search-a-phoenix-arisen-from-the-ashes>).
Many bibliometricians and university administrators are fairly conservative
in their approach to citation analysis. It is not unusual to see them
prefer the Web of Science (ISI for short) as “the gold standard” and
discard Google Scholar out of hand, simply because they have heard some
wild-west stories about its “overly generous” coverage. These stories are
typically based one or more of the following misconceptions, which I will
dispute below.

   - First, the impression that everything “on the web” citing an
   academic’s work counts as a citation.
   - Second, the assumption that any publication that is not listed in the
   Web of Science is not worth considering at all.
   - Third, a general impression that citation counts in Google Scholar are
   completely unreliable.

*Not everything published on the internet counts in Google Scholar*

Some academics are under the misplaced impression that anything posted on
the internet that includes references will be counted in Google Scholar.
This might also be the source behind the misconception that one can put
simply put phantom papers online to improve one’s citation count. However,
Google Scholar only indexes scholarly publications. As its website
indicates: “we work with publishers of scholarly information to index
peer-reviewed papers, theses, preprints, abstracts, and technical reports
from all disciplines of research
<https://scholar.google.com/intl/en/scholar/publishers.html>.”

Some non-scholarly citations, such as student handbooks, library guides or
editorial notes slip through. However, incidental problems in this regard
are unlikely to distort cita­tion metrics, especially robust ones such as
the h-index
<http://www.harzing.com/blog/2016/07/from-hindex-to-hia-the-ins-and-outs-of-research-metrics>.
Hence, although there might be some overestimation of the number of
non-scholarly cita­tions in Google Scholar, for many disciplines this is
preferable to the very significant and systematic underestimation of
scholarly citations in ISI or Scopus. Moreover, as long as one compares
like with like, i.e. compares citation records for the *same* data source,
this should not be a problem at all.

*Non-ISI listed publications can be high-quality publications*

There is also a frequent assumption amongst research administrators that
ISI listing is a stamp of quality and that hence one should ignore non-ISI
listed publications and citations. There are two problems with this
assumption. First, ISI has a bias towards science, English-language and
North American journals
<http://www.harzing.com/blog/2016/06/do-google-scholar-scopus-and-the-web-of-science-speak-your-language>.
Second, ISI completely ignores a vast majority of publications in the
social sciences and humanities.

   - *ISI journal listing is very incomplete in the social sciences and
   humanities:* ISI’s listing of journals is much more comprehensive in the
   sciences than in the social sciences and humanities
   <http://www.harzing.com/blog/2016/09/citation-analysis-for-the-social-sciences-metrics-and-datasources>.
   Butler (2006) analysed the distribution of publication output by field
   for Australian universities between 1999 and 2001
   <http://www.chass.org.au/wp-content/uploads/2015/02/PAP20061102LB.pdf>.
   She found that whereas for the chemical, biological, physical and
   medical/health sciences between 69.3% and 84.6% of the publications were
   published in ISI listed journals, this was the case for only 4.4%-18.7% of
   the publica­tions in the social sciences such as management, history
   education and arts. Many high-quality journals in the field of economics
   and business are not ISI listed. Only 30%-40% of the journals in
   accounting, marketing and general management and strategy listed on
my Journal
   Quality List
<http://www.harzing.com/resources/journal-quality-list>(already
   a pretty selective list) are ISI listed. There is no doubt that – on
   average – journals that are ISI listed are perceived to be of higher
   quality. However, there is a very substantial number of non-ISI indexed
   journals that have a higher than average h-index.
   - *ISI has very limited coverage of non-journal publications:* second,
   even in the cited reference search, ISI only includes citations in ISI
   listed journals. In the general search function it completely ignores any
   publications that are not in ISI-listed journals. As a result a vast
   majority of publications and citations in the social sciences and
   humanities, as well as in engineering and computer science, are ignored. In
   the social sciences and huma­nities this is mainly caused by a complete
   neglect of books, book chapters, publications in languages other than
   English, and publications in non-ISI listed journals. In engineering and
   computer science, this is mostly caused by a neglect of conference
   proceedings. ISI has recently introduced conference proceedings in its
   database. However, it does not provide any details of which conferences are
   covered beyond listing some disciplines that are covered. I was unable to
   find any of my own publications in conference proceedings. As a
result ISI very
   seriously underestimates both the number of publications and the num­ber of
   citations
   <http://www.harzing.com/publications/white-papers/citation-analysis-across-disciplines>
for
   academics in the social sciences and humanities and in engineering and
   computer science.

*Google Scholar’s flaws have been played up far too much*

Peter Jacsó, a prominent academic in information and library science, has
published several rather critical articles about Google Scholar (e.g.
Jacsó, 2006a
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610659201> and 2006b
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610675816>). When
confronted with titles such as “Dubious hit counts and cuckoo’s eggs
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610659201>”
and “Deflated,
inflated and phantom citation counts
<http://www.emeraldinsight.com/doi/full/10.1108/14684520610675816>”, Deans,
academic administrators and tenure/­promotion committees could be excused
for assuming Google Scholar provides unreliable data.

However, the bulk of Jacsó’s critique is levelled at Google Scholar’s
inconsistent number of results for keyword searches, which are not at all
relevant for the author and journal impact searches that most
academics use Publish
or Perish <http://www.harzing.com/resources/publish-or-perish> for. For
these types of searches, the following caveats are important.

   - *Citation metrics are robust and insensitive to occasional errors:*
   most of the metrics used in Publish or Perish are fairly robust and
   insensitive to occasional errors as they will not generally change
the h-index
   or g-index
   <http://www.harzing.com/resources/publish-or-perish/tutorial/metrics/h-and-g-index>
and
   will only have a minor impact on the number of citations per paper. There
   is no doubt that Google Scholar’s automatic parsing occasionally provi­des
   us with nonsensical results. However, these errors do not appear to be as
   frequent or as important as implied by Jacsó’s articles. They also do not
   generally impact the results of author or journal queries much, if at all.
   - *Google Scholar parsing has improved significantly:* Google Scholar
   has also significantly improved
   <http://www.harzing.com/publications/online-papers#gs_coverage> its
   parsing since the errors were pointed out to them. However, many academics
   are still referring to Jacsó’s 2006 articles as convincing arguments
   against *any* use of Google Scholar. I would argue this is
   inappropriate. As academics, we are only all too well aware that *all* of
   our research results include a certain error margin. We cannot expect
   citation data to be any different.
   - *Google Scholar errors are random rather than systematic:* what is
   most important is that errors are *random* rather than *systematic*. I
   have no reason to believe that the Google Scholar errors identified in
   Jacsó’s articles are anything else than random. Hence they will not
   normally advantage or disadvantage individual academics or journals.
   - *ISI and Scopus have systematic errors of coverage:* in contrast,
   commercial databases such as ISI and Scopus have *systematic* errors as
   they do not include many journals in the social sciences and humanities,
   nor have good coverage of conferences proceedings, books or book chapters.
   Therefore, although it is always a good idea to use multiple data sources,
   rejecting Google Scholar out of hand because of presu­med parsing errors is
   not rational. Nor is presuming ISI is error-free
   <http://www.harzing.com/blog/2017/02/web-of-science-to-be-robbed-of-10-years-of-citations-in-one-week>
simply
   because it charges high subscription fees.

*Conclusion*

As I have argued in the past
<http://www.harzing.com/blog/2016/08/sacrifice-a-little-accuracy-for-a-lot-more-comprehensive-coverage>,
Google Scholar and Publish or Perish
<http://www.harzing.com/resources/publish-or-perish> have democratised
citation analysis
<http://www.harzing.com/blog/2017/02/publish-or-perish-realising-google-scholars-potential-to-democratise-citation-analysis>.
Rather than leaving it in the hands of those with access to commercial
databases with high subscription fees, anyone with a computer and internet
access can now run their own analyses. If you’d like to know more about
this, have a look at this presentation
<http://www.harzing.com/download/Madrid%20GS%20demo.pdf>.

*This blog post originally appeared on the * *author’s personal website*
<http://www.harzing.com/blog/2017/02/google-scholar-is-a-serious-alternative-to-web-of-science>*
and is republished here with permission. Copyright © 2017 Anne-Wil Harzing.*

*Featured image credit: Viele bunte Bälle
<https://www.flickr.com/photos/maret1983/6262154338/> by Maret Hosemann
(licensed under a CC BY 2.0 <https://creativecommons.org/licenses/by/2.0/>
license).*

*Note: This article gives the views of the author, and not the position of
the LSE Impact Blog, nor of the London School of Economics. Please review
our **comments policy*
<http://blogs.lse.ac.uk/impactofsocialsciences/about-the-blog/comments-policy/>*
if
you have any concerns on posting a comment below.*

*About the author*

*Anne-Wil Harzing is Professor of International Management at Middlesex
University, London. In addition to her academic duties, she also maintains
the Journal Quality List and is the driving force behind the popular
Publish or Perish software program.*
------------ próxima parte ------------
Se ha borrado un adjunto en formato HTML...
URL: <http://tlali.iztacala.unam.mx/pipermail/academia/attachments/20170505/f46e6d9c/attachment.htm>
------------ próxima parte ------------
A non-text attachment was scrubbed...
Name: no disponible
Type: image/png
Size: 20240 bytes
Desc: no disponible
URL: <http://tlali.iztacala.unam.mx/pipermail/academia/attachments/20170505/f46e6d9c/attachment.png>


Más información sobre la lista de distribución Academia