Column: Begrijpelijke AI-modellen
Posted on
Deze column, geschreven door Sandra van den Poll, partnership manager bij JADS, is eerder gepubliceerd in Food+Agribusiness magazine.
De komst van Generative AI heeft de toepassing van algoritmen in ons dagelijks leven een stuk zichtbaarder gemaakt. Teksten kunnen in een handomdraai worden geschreven en zelfs foto’s en video’s kunnen in een muisklik worden gemaakt zonder dat daar een mens aan heeft gewerkt. De snelle ontwikkeling van Generative AI heeft ook de agri- en foodsector bereikt. Algoritmes worden ingezet om oogsten te optimaliseren, ziektes te detecteren en supply chains efficiënter te maken. Hoewel deze ontwikkelingen veelbelovend zijn, is het van cruciaal belang dat deze algoritmes goed te begrijpen zijn en blijven.
Vertrouwen in AI is cruciaal. Zowel ondernemers, consumenten als regelgevers moeten begrijpen hoe AI-beslissingen tot stand komen. De kwaliteit van de data die gebruikt worden om AI-modellen te trainen, is hierbij van groot belang. Onvolledige of biased data kunnen leiden tot onjuiste resultaten.
Daarnaast is het cruciaal om bewust te zijn van een eventuele bias (een bewuste of onbewuste vooringenomenheid) in het model om de uitkomsten te kunnen begrijpen. Allereerst is er kans op bias door de historische dataset. Als de data voornamelijk afkomstig zijn van grote, traditionele landbouwbedrijven, dan kan het algoritme een bias ontwikkelen ten gunste van deze bedrijven en hun specifieke teeltmethoden. Hierdoor kan het algoritme minder nauwkeurig zijn voor kleinere, meer gevarieerde bedrijven. Andere soorten bias in een model kunnen worden veroorzaakt door seizoensgebonden data, geografisch specifieke data, maar ook sociale bias. Die laatste categorie is de laatste tijd veel in opspraak geweest in het trainen van AI-modellen die vooral gebaseerd zijn op de westerse sociale maatstaven, waardoor deze modellen soms discriminerende resultaten opleverden voor andere sociale groepen.
Om bias te voorkomen, moeten we zorgen voor diverse en representatieve datasets. Daarnaast moeten algoritmes regelmatig geëvalueerd worden en moeten de resultaten transparant zijn. Door deze maatregelen te nemen, kunnen we ervoor zorgen dat AI in de agrifood eerlijk en betrouwbaar blijft.