Jag är på jakt efter massor av data. Vill testa min databas mot överbelastning och liknande och därför behöver jag få tag på "pseudodata" så att säga. 10 000 rader och kanske mer. Känns ju inget roligt att sitta och klippa och klistra när jag har en tabell med 500 rader och vill ha 100 000. Finns det några slumpgeneratorer som man kan använda sig av eller pgm som kan göra detta åt mig? Överbelastning? Vad menar du med det? 10000 rader är inte särskilt mycket, så det behöver du nog inte oroa dig för. Prova med CROSS JOIN Det skulle ändå vara intressant att titta på något sådan program som kan generera dessa data. 10 000 poster och upp till 100 000 poster kanske. Det jag vill göra är alltså att kolla hur svarstiderna förändras vid användning av mer data. Tabellerna behöver inte vara så komplicerade eftersom min databas inte kommer att vara det. Men det är ju det jag menar, det är ju omöjligt att säga hur svarstiderna förändras om du inte har riktig data, eftersom index t ex kan användas mer eller mindre bra med olika mängd data etc. Det gäller ju inte bara sånt här när man ska testa. Om informationen i en databas förändras väsentligt av någon anledning bör man då se över index och vilka frågor man kör. Du kan ju duplicera data i en tabbell genom en insert. Om du kör den flera gånger så får du väldigt snabbt väldigt många poster. Om du har poster i tabellen.Data, data, data...
Tacksam för svar.Sv: Data, data, data...
Det finns vissa program som kan generera data, men de är oftast ganska oanvändbara. För det första så är det inte säkert att de kan generera data som passar i din(a) tabell(er), men framförallt så är det antagligen inte särskilt relevant data som genereras. Ska du t ex testa om dina frågor går fort mot en tabell med lite mer data måste ju datan reflektera hur riktig data hade sett ut. Om du t ex har en tabell med personer och deras ålder är en kolumn som du söker i så bör ju distributionen av värden för ålder motsvara vad de skulle varit i en riktig situation där du fått in många rader. Förmodligen skulle de inte vara jämnt fördelade i ett visst spann, vilket de lär bli om du slumpgenerar dem.
Men du har förstås helt rätt i att man bör testa sin applikation med lite större datamängder än man kanske hade när man byggde den, men då bör man som sagt försöka använda 'verklig' data.Sv: Data, data, data...
<code>
USE pubs
SELECT au_fname, au_lname, pub_name
FROM authors CROSS JOIN publishers
ORDER BY au_lname DESC
</code>
Om authors innehåller 500 poster och publishers oxå innehåller 500 så får du 500*500 rader.Sv: Data, data, data...
Sv: Data, data, data...
Men om du verkligen bara vill ha in mycket data behöver du väl inte något program för att generera det, antingen skriver du ett enkelt sådant själv eller så gör du t ex en cross join som föreslogs ovan. Men visst, vill du ha ett program så finns det. Datatect är ett av de jag har hört nämnas: http://www.datatect.com/Sv: Data, data, data...
Om du har relationer på flera nivåer kan du ju skriva ett VB program som skapar poster låta det skapa ett bestämta antal poster med ett slumpgenererat antal poster.
Försök föreställa dig hur mycket datan växer. T.Ex Poster för kunder växer ju inte lika mycket som order.