Häromdagen hörde jag en intressant presentation av en chef för ett AI-relaterat forskningscentrum vid ett större svenskt universitet. Under frågestunden ställde jag frågan om hur stort verksamhetens koldioxidavtryck är. ”Ööööh, ingen aning” blev svaret (fritt översatt från vederbörandes engelska).
Men det finns undersökningar som försökt att kvantifiera det här forskningsområdets ”carbon footprint”. Till exempel en studie av Strubel, Ganesh, McCallum (2019)1 vars undersökning, enligt en populärvetenskaplig sammanfattning
analyzed various natural language processing (NLP) models to estimate the energy cost required to train them and concluded that the carbon footprint of training a single large language model is around 600,000 pounds of CO2 emissions, which is the equivalent of 125 round-trip flights between New York and Beijing.
Medan vi vanliga humanister på universitetet är ålagda – med all rätt – av universitetsledningen att fundera över resor till konferenser och empiriinsamling, så kan de tydligen träna sina stora språkmodeller och släppa ut, som det tycks ut, långt mer än en eller annan konferensresa för en forskare som annars håller på med böcker, papper, penna.