Välkommen till Trafiklab:s användare- och supportforum! Ställ frågor, rapportera problem och hjälp oss med förslag och idéer!
Vid felrapporter ber vi dig inkludera exakt API-namn och om möjligt ett exempelanrop för att underlätta felsökningen. Glöm inte att ta bort din API-nyckel när du delar ditt exempelanrop.
Undrar du hur du får tillgäng Trafiklabs data? Läs vår introduktion här: https://www.trafiklab.se/hur-gor-jag
Welcome to Trafiklab's user and supportforum. Ask questions, report issues and help us improve with suggestions and ideas!
If you open a new issue, please always include the exact API you're talking about, and, if applicable, include a sample request so we can check if contains the right parameters. Don't forget to remove your API keys when sharing example requests.
Välkommen till Trafiklab:s kund- och supportforum! Ställ frågor, rapportera problem och hjälp oss med förslag och idéer!
Om du använder den vanliga notepad applikationen, kan jag rekommendera att använda notepad++ (använder 600mb minne istället för 1,2gb). Sublime däremot verkar använda mer än 2gb minne för samma fil.
Om du vill få ut alla stop_times för en hållplats antar jag att du vill göra det igen i framtiden, och att man kommer programmera en lösning för det. Då blir det mycket enklare, eftersom att man inte behöver läsa hela filen i en gång. I python skulle det se ut såhär:
with open('/your/path/file') as f:
for line in f:
process(line)
Eftersom den for-each går genom en generator (yield istället för return) läses bara en rad i taget, så det kommer gå kanonbra att läsa i. Andra programmeringsspråk har liknande lösningar.
Man måste alltid dra ner hela zip filen, eftersom att detta är meningen med GTFS och liknande datasets. Man får all data så att man kan göra vad som helst med dem. Annars har vi ResRobot API:er, om man hellre bygger på ett API (ResRobot bygger dock på äldre data). Om du bara är intresserad i data från en operatör finns samma data i GTFS regional, där kan du ladda ner mindre filer per operatör.
Hälsningar,
Bert