[Perl] Pregunta #3
Luis Guillot
lguillot@grupoguzman.com
Wed, 13 Mar 2002 08:54:46 +0100
> La Pregunta #2 me la hago yo también, porque yo tengo un problema
parecido.
EUREKA!!! EUREKA!!! EUREKA!!! Sabía que había una forma más facil!!!!
Como siempre la solución siempre se encuentra viendolo desde otro punto de
vista. En vez de multiplicar las comparaciones, mejor sumarlas, porque
realmente el problema no es buscar nuevos, sino eliminar los duplicados!!!
Si hacemos el doble foreach, realmente multiplicamos el TamañoLista 1
por el TamañoLista 2, haciendose para listas largas millones de
comparaciones... Pero si sumanos las Listas, vamos a tener un numero mucho
mas pequeño de comparaciones que hacer... La solución entonces:
1.- Sumarle a lista "REAL" todo lo que haya en lista "MIENTRAS".
2.- Ordenarla (con el sort de PERL deberia de ser rápida independientemente
del tamaño de la lista sumanda.
3.- Hacer solo un foreach donde revise cada linea con la siguiente, si es
duplicado borra una, y así sucesivamente!
4.- Esto agiliza enormente la operación deseada... Alguna otra idea para
hacer esto?
> He intentado quitar el foreach interior y sacarlo fuera con JavaScript,
> llamándolo desde dentro del otro foreach con un evento tipo 'OnMouseDown',
> pero no he conseguido que me funcione. si tienes más suerte me lo dices. A
> mí no me reconoce el evento de JavaScript en un link de Perl.
Que es o que realmente quieres hacer???
Lo que quiero hacer es algo parecido a lo tuyo, pero no es exacto. Yo tengo
2 ficheros planos, FICHERO1 y FICHERO2, con datos distintos, pero que tienen
en común un campo. Entonces yo quiero comparar este campo común en los dos
ficheros, y los que sean iguales sacarlos.
Es decir, por cada campo del FICHERO1, mirar en todo el FICHERO2, y la línea
que coincida sacar unos datos.
Esto me implica que por cada entrada del FICHERO1, tengo que recorrer todo
el FICHERO2. Y no son pequeños los ficheros. De ahí el alto coste temporal.
No me sirve la forma esta de unirlos. Por eso solo se me ha ocurrido lo de
JavaScript. ¿Se os ocurre algo mejor?
> Yo no he manejado grandes datos, pero con archivos medianos, de unas 1000
> líneas, el coste temporal hay que empezar a tenerse en cuenta. Es el
> problema de los ficheros planos.
Pos yo tengo de 2649 lineas y funciona bien... y otro de 72kb sin
problemas.... La cuestión es que se van acumulando los datos
> No sé si respondo a tus preguntas. espero haberte ayudado un poco, y
gracias
> por tu respuesta de antes.
Todo apoyo es bueno.... Funciono lo de las cookies???
Sí si el expires lo pongo a 0. Al cerrar el navegador se cierra la conexión.
Pero los 15 minutos es por seguridad. Si en 15 minutos el usuario no ha
realizado ninguna acción se cierra la conexión automáticamente, y esto no lo
quiero quitar.
Mi problema es cómo desconectarlos automáticamente sin cambiar esto, cuando
cambien de página o cierren el navegador.
¿A qué te refieres con lo de POST?¿No usas cookies y lo mandas todo con
POST?¿Cómo?
Gracias a todos y un saludo.
Luis Guillot
---
Sinceramente...
Alejandro G. Bedoya
InterAccion.COM Ponemos su Internet en Acción
_______________________________________________
Perl mailing list
Perl@tlali.iztacala.unam.mx
http://tlali.iztacala.unam.mx/mailman/listinfo/perl