The 2025 General Shabeg Singh annual lecture was delivered by Sikh Education Council fellow Harwinder Singh on Thursday 29 May at the Sikh Education Council Research Centre in central London.

Watch the lecture as it was delivered live below and/or read the published version.

21ਵੀਂ ਸਦੀ ਵਿੱਚ ਡਿਜੀਟਲ ਤਕਨੀਕ ਦੀ ਤੇਜ਼ੀ ਨਾਲ ਵਧ ਰਹੀ ਤਰੱਕੀ ਨੇ ਆਡੀਓ-ਵਿਜ਼ੂਅਲ ਸਮੱਗਰੀ ਦੇ ਉਤਪਾਦਨ ਵਿੱਚ ਇੱਕ ਕ੍ਰਾਂਤੀਕਾਰੀ ਬਦਲਾਅ ਲਿਆ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਨਵੇਂ ਸਾਧਨ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਸਮਾਜ ਵਿੱਚ ਇਹ ਉਤਸੁਕਤਾ ਪਾਈ ਜਾ ਰਹੀ ਹੈ ਕਿ ਇਹ ਤਬਦੀਲੀ ਅਗਲੇ ਪੜਾਅ ਉਤੇ ਕਿੱਧਰ ਲੈ ਜਾਵੇਗੀ। ਵਿਜ਼ੂਅਲ ਕਲਾ ਦੇ ਖੇਤਰ ਵਿੱਚ ਹੁਣ ਸਿਰਫ਼ ਤਜਰਬੇਕਾਰ ਕਲਾਕਾਰ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਆਮ ਉਤਸ਼ਾਹੀ ਵੀ, ਜੋ ਘਰ ਦੇ ਬੈੱਡਰੂਮ ਵਿੱਚ ਕੰਮ ਕਰ ਰਹੇ ਹਨ, ਉੱਚ ਗੁਣਵੱਤਾ ਵਾਲੀ ਸਮੱਗਰੀ ਤਿਆਰ ਕਰਨ ਦੇ ਯੋਗ ਹੋ ਗਏ ਹਨ।

ਇਹ ਤਬਦੀਲੀ ਮੁਮਕਿਨ ਹੋਈ ਹੈ ਸਾਫਟਵੇਅਰ-ਅਧਾਰਤ ਸੰਪਾਦਨ ਦੀ ਪ੍ਰਗਟਤਾ ਕਾਰਨ, ਜੋ ਹਰ ਨਵੇਂ ਸੰਸਕਰਨ ਨਾਲ ਹੋਰ ਵੀ ਕਿਫਾਇਤੀ, ਤੇਜ਼ ਅਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਬਣਦਾ ਜਾ ਰਿਹਾ ਹੈ।

ਇਸ ਪੂਰੇ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੀ ਭੂਮਿਕਾ ਹੌਲੀ-ਹੌਲੀ ਕੇਂਦਰੀ ਬਣ ਗਈ ਹੈ। ਇਸ ਤਕਨੀਕ ਦੇ ਨਿਵੇਸ਼ ਨਾਲ ਸੰਭਾਵਨਾਵਾਂ ਅਤੇ ਸਮਰੱਥਾਵਾਂ ਦੀ ਗਿਣਤੀ ਕਰਨੀ ਮੁਸ਼ਕਲ ਹੋ ਗਈ ਹੈ। ਖਾਸ ਕਰਕੇ “ਜਨਰੇਟਿਵ AI” ਨੇ ਅਜਿਹੀ ਸਮੱਗਰੀ ਪੈਦਾ ਕਰਨ ਦੀ ਯੋਗਤਾ ਹਾਸਲ ਕਰ ਲਈ ਹੈ ਜੋ ਦਿੱਖ, ਆਵਾਜ਼ ਅਤੇ ਅਭਿਵ੍ਯਕਤੀ ਦੇ ਪੱਖੋਂ ਅਸਲੀਤਾ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰ ਸਕਦੀ ਹੈ।

ਜਦਕਿ ਇਹ ਤਕਨਾਲੋਜੀ ਸਿੱਖਿਆ, ਮਨੋਰੰਜਨ ਅਤੇ ਡਿਜ਼ਾਈਨ ਵਰਗੇ ਖੇਤਰਾਂ ਵਿੱਚ ਨਵੀਂ ਉਚਾਈਆਂ ਹਾਸਲ ਕਰ ਰਹੀ ਹੈ, ਉਥੇ ਇਹ ਚਿੰਤਾ ਵੀ ਜਨਮ ਲੈ ਰਹੀ ਹੈ ਕਿ ਇਸਦੇ ਨਕਾਰਾਤਮਕ ਪ੍ਰਭਾਵ ਕਿੰਨੇ ਵਿਆਪਕ ਹੋ ਸਕਦੇ ਹਨ।

ਸਭ ਤੋਂ ਵੱਡੀ ਚੁਣੌਤੀ ਸਿੰਥੈਟਿਕ ਮੀਡੀਆ ਰੂਪ ਵਿੱਚ ਆ ਰਹੀ ਹੈ। ਅਜਿਹੀ ਸਮੱਗਰੀ ਜੋ ਆਮ ਦਰਸ਼ਕ ਲਈ ਅਸਲੀ ਲੱਗਦੀ ਹੈ, ਪਰ ਅਸਲ ਵਿੱਚ ਪੂਰੀ ਤਰ੍ਹਾਂ ਨਕਲੀ ਹੁੰਦੀ ਹੈ। ਡੀਪਫੇਕ ਤਕਨਾਲੋਜੀ ਰਾਹੀਂ ਲੋਕਾਂ ਦੀ ਆਵਾਜ਼, ਚਿਹਰਾ, ਅਤੇ ਹਾਵ-ਭਾਵ ਦੀ ਨਕਲ ਕਰਕੇ ਉਨ੍ਹਾਂ ਨੂੰ ਐਸੇ ਸੰਦਰਭਾਂ ਵਿੱਚ ਪੇਸ਼ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਉਨ੍ਹਾਂ ਦੀ ਅਸਲੀ ਸ਼ਖਸੀਅਤ ਜਾਂ ਭੂਮਿਕਾ ਨਾਲ ਕੋਈ ਸਬੰਧ ਨਹੀਂ ਰੱਖਦੇ।

ਇਹ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਤਦਾਅਤ ਗੰਭੀਰ ਹੋ ਜਾਂਦਾ ਹੈ ਜਦੋਂ ਇਹ ਤਕਨੀਕ ਰਾਜਨੀਤਿਕ ਹਸਤੀਆਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣ, ਉਨ੍ਹਾਂ ਦੇ ਖਿਲਾਫ ਝੂਠੇ ਭਾਸ਼ਣ ਪੇਸ਼ ਕਰਨ, ਜਾਂ ਚੋਣੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਹਸਤਕਸ਼ੇਪ ਕਰਨ ਲਈ ਵਰਤੀ ਜਾਂਦੀ ਹੈ।

ਹਾਲੇ ਤੱਕ ਦੇ ਅਧਿਐਨ ਦਰਸਾਉਂਦੇ ਹਨ ਕਿ ਸ਼ੁਰੂਆਤੀ ਡੀਪਫੇਕਸ ਆਸਾਨੀ ਨਾਲ ਪਛਾਣੇ ਜਾਂਦੇ ਸਨ, ਪਰ ਹੁਣ ਇਹਨਾਂ ਦੀ ਗੁਣਵੱਤਾ ਅਤੇ ਪ੍ਰਮਾਣਿਕਤਾ ਇੰਨੀ ਉੱਚੀ ਹੋ ਚੁੱਕੀ ਹੈ ਕਿ ਆਮ ਉਪਭੋਗਤਾ ਲਈ ਅਸਲ ਅਤੇ ਨਕਲੀ ਵਿਚਕਾਰ ਅੰਤਰ ਕਰਨਾ ਮੁਸ਼ਕਲ ਹੋ ਗਿਆ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਇਹ ਤਕਨੀਕ ਹੋਰ ਸੁਧਰਦੀ ਜਾ ਰਹੀ ਹੈ, ਇਹ ਜੋਖਮ ਹੋਰ ਵੀ ਵਧਣ ਦੀ ਸੰਭਾਵਨਾ ਹੈ।

ਇਹ ਪਰਿਸਥਿਤੀ ਸਿਰਫ਼ ਇੱਕ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਨਹੀਂ ਰਹੀ; ਇਹ ਇੱਕ ਸਮਾਜਿਕ, ਰਾਜਨੀਤਿਕ ਅਤੇ ਨੈਤਿਕ ਵਿਸ਼ਾ ਬਣ ਚੁੱਕੀ ਹੈ। ਜਦਕਿ ਮਨਘੜਤ ਵੀਡੀਓਜ਼ ਅਤੇ ਆਡੀਓਜ਼ ਲੋਕਾਂ ਦੇ ਵਿਚਕਾਰ ਵਿਸ਼ਵਾਸ ਨੂੰ ਨਸ਼ਟ ਕਰ ਰਹੀਆਂ ਹਨ, ਉਥੇ ਹੀ ਅਸਲ ਘਟਨਾਵਾਂ ਨੂੰ ਵੀ ਅਸਥਿਰ ਧਿਰਾਂ ਵੱਲੋਂ “ਫਰਜੀ” ਕਹਿ ਕੇ ਰੱਦ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ।

ਇਹ ਸਥਿਤੀ ਲੋਕਤੰਤਰਕ ਸੰਸਥਾਵਾਂ ਲਈ ਗੰਭੀਰ ਖ਼ਤਰਾ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਚੋਣਾਂ ਦੀ ਪਾਰਦਰਸ਼ਤਾ, ਜਨਤਕ ਚਰਚਾ ਦੀ ਸਚਾਈ ਅਤੇ ਨਾਗਰਿਕ ਭਰੋਸੇ ਦੀ ਨੀਂਹ, ਇਹ ਸਭ ਕੁਝ ਸੰਸ਼ਯ ਦੇ ਘੇਰੇ ਵਿੱਚ ਆ ਜਾਂਦਾ ਹੈ।

ਇਸ ਸੰਕਟ ਤੋਂ ਨਿਕਲਣ ਲਈ ਤਿੰਨ ਪੱਧਰੀ ਹੱਲ ਉਚਿਤ ਹਨ:

  1. ਤਕਨੀਕੀ ਹੱਲ: AI ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਨ ਵਾਲੇ ਟੂਲਾਂ ਦੀ ਵਿਕਾਸशीलਤਾ, ਵਿਸ਼ਵ ਪੱਧਰੀ ਮਾਪਦੰਡਾਂ ਦੀ ਰਚਨਾ, ਅਤੇ ਮੀਡੀਆ ਪ੍ਰਮਾਣੀਕਰਣ ਦੀ ਵਿਧੀ।
  2. ਕਾਨੂੰਨੀ ਹੱਲ: ਸਖ਼ਤ ਨਿਯਮ ਜੋ ਨਕਲੀ ਸਮੱਗਰੀ ਦੀ ਉਤਪਤੀ, ਪ੍ਰਸਾਰਣ ਅਤੇ ਉਪਯੋਗ ਉੱਤੇ ਰੋਕ ਲਗਾਉਣ, ਅਤੇ ਸਾਥੀ ਤੌਰ ‘ਤੇ ਆਜ਼ਾਦੀ-ਏ-ਅਭਿਵਕਤੀ ਦੀ ਰੱਖਿਆ ਕਰ ਸਕਣ।
  3. ਸਮਾਜਿਕ ਹੱਲ: ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਦਾ ਵਿਕਾਸ, ਡਿਜੀਟਲ ਸਾਵਧਾਨੀ ਦੀ ਸਿੱਖਿਆ, ਅਤੇ ਲੋਕਾਂ ਵਿਚਕਾਰ ਸੰਵਾਦ ਦੀ ਸੰਸਕ੍ਰਿਤੀ ਦਾ ਉਤਸ਼ਾਹ।

ਸਭ ਤੋਂ ਵੱਡੀ ਭੂਮਿਕਾ, ਹਾਲਾਂਕਿ, ਨਾਗਰਿਕਾਂ ਦੀ ਹੀ ਹੈ। ਸਾਡੀ ਸਮਝ, ਸਾਡਾ ਵਿਸ਼ਲੇਸ਼ਣਾਤਮਕ ਵਿਹਾਰ ਅਤੇ ਸਾਡਾ ਇਮਾਨਦਾਰ ਸੰਵਾਦ, ਇਹ ਤਕਨਾਲੋਜੀ ਦੇ ਨਕਾਰਾਤਮਕ ਪ੍ਰਭਾਵਾਂ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਵਿੱਚ ਮਦਦਗਾਰ ਹੋ ਸਕਦੇ ਹਨ।

ਅੰਤ ਵਿੱਚ, ਜਿਵੇਂ ਕਿ ਤਕਨੀਕ ਨੇ ਸਾਡੀ ਦੁਨੀਆ ਨੂੰ ਨਵਾਂ ਰੂਪ ਦਿੱਤਾ ਹੈ, ਉਵੇਂ ਹੀ ਸਾਡੀ ਜ਼ਿੰਮੇਵਾਰੀ ਬਣਦੀ ਹੈ ਕਿ ਅਸੀਂ ਇਸ ਤਬਦੀਲੀ ਨੂੰ ਇੱਕ ਸੁਚੱਜੀ ਦਿਸ਼ਾ ਵਿੱਚ ਲੈ ਕੇ ਜਾਈਏ। ਸਿੰਥੈਟਿਕ ਮੀਡੀਆ ਦੀ ਸੰਭਾਵਨਾਵਾਂ ਦੇ ਨਾਲ-ਨਾਲ ਇਸ ਦੀਆਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਸਮਝਣਾ ਅਤੇ ਉਨ੍ਹਾਂ ਲਈ ਨਿਰਣਾਇਕ ਹੱਲ ਲੱਭਣਾ, ਸਾਡੀ ਆਉਣ ਵਾਲੀ ਪੀੜ੍ਹੀ ਲਈ ਸਭ ਤੋਂ ਵੱਡੀ ਸੇਵਾ ਹੋਵੇਗੀ।

As the revolution in content creation and audio-visual production advances, society is increasingly excited to see what will come next. From the experienced visual artist to the bedroom enthusiast, software-based editing has become affordable and more powerful with each iteration. Now with the infusion of artificial intelligence, the possibilities and capabilities have become seemingly limitless. Whilst this has major ramifications for the traditional production industries in video, imagery and sound, that is not the only concern for democracies around the World. Synthetic content is an increasingly serious risk that is used to manipulate the public by malicious actors aiming to distort or misrepresenting reality for their own ends.

 

Synthetic media has become a credible form of content today that looks as realistic as authentic media due to advanced AI algorithms. The process has allowed the average user to replicate the appearance, voice, and behaviour of real people to create content that follows their script. As the technology has rapidly improved, the content has become virtually indistinguishable from documented authentic media, providing a veneer of authenticity to the content when packaged appropriately. This technology has unlimited potential in fields such as entertainment, design, and education, but it has inevitably been adopted for malicious purposes by a range of state and non-state actors.

 

Deepfakes targeting celebrities have proliferated the internet for some years now, specifically presenting scandalous and compromising situations for views. That this quickly moved on to politicians delivering speeches that were never made, or commenting out of character in encounters that never happened, was natural and to be expected. However, although early deepfakes were uncovered quickly, more recent content has been difficult to distinguish. The coming developments will only exacerbate this further.

 

Fabricated videos and audios erode the trust of the people. If we cannot believe what we see or hear, it brings into question the foundation of our civilised societies. Destabilisation increases polarised viewpoints, and a cynicism of power; this can be utilised to sway an election, or discredit political figures, or sew the seed of disinformation amongst people. Conversely, actual events that are accurately documented can be defended by the guilty parties as fake media. But most troublingly, synthetic media can incite major social arrest, instigate conflict, or even lead to the breakout of war, if it goes unchecked.

 

There are solutions: detection tools already exist to analyse images, video and sound for the invisible markers of artificial intelligence; more need to be developed and with international support. A globally accepted certification system could follow to verify media content as either accurate, questionable, or synthetic. Legal recourse should be followed against those creating malicious synthetic media, with national laws reflecting the difference between these actions and legitimate satire or fictional content.

 

But perhaps the best solutions lie with us, the people. To what extent have we enhanced our skills in critical thinking? Has our individual and collective intellect kept pace with the technological, medical and scientific advances that now go hand-in-hand with our daily lives? Skills in critical thinking are not only for younger generations, but should be for all. Knowing which platforms to trust and to ascribe integrity to those is a vital weapon we must learn to use. Added to this we must find new forums of discourse to engage our fellow citizens on a regular basis. Through a free-flowing exchange of ideas and opinions can we learn to respect our differences, and build a world where the tools afforded by artificial intelligence can be utilised for the betterment of all, rather than propaganda wars. Put simply, we must develop a culture of debating policy not personality, if we are to resist the overtures of synthetic content. The threat it poses our democratic institutions is here, not some way in the future; let us stay alert and deliberate over the topic with the same vigour and speed that it has shown in it’s arrival.