fix: fix pnpm lockfile backward compatbility issue
[poolifier.git] / tests / pools / cluster / dynamic.test.js
index c737c1d90ebc08743d5ae2a0af99c8957433376c..a5250e538a2eedf562d43981998adf4207092e72 100644 (file)
@@ -37,7 +37,7 @@ describe('Dynamic cluster pool test suite', () => {
     // The `busy` event is triggered when the number of submitted tasks at once reach the max number of workers in the dynamic pool.
     // So in total numberOfWorkers + 1 times for a loop submitting up to numberOfWorkers * 2 tasks to the dynamic pool.
     expect(poolBusy).toBe(max + 1)
-    const numberOfExitEvents = await TestUtils.waitExits(pool, max - min)
+    const numberOfExitEvents = await TestUtils.waitWorkerExits(pool, max - min)
     expect(numberOfExitEvents).toBe(max - min)
   })
 
@@ -47,18 +47,18 @@ describe('Dynamic cluster pool test suite', () => {
       pool.execute()
     }
     expect(pool.workerNodes.length).toBeGreaterThan(min)
-    await TestUtils.waitExits(pool, max - min)
+    await TestUtils.waitWorkerExits(pool, max - min)
     expect(pool.workerNodes.length).toBe(min)
     for (let i = 0; i < max * 2; i++) {
       pool.execute()
     }
     expect(pool.workerNodes.length).toBeGreaterThan(min)
-    await TestUtils.waitExits(pool, max - min)
+    await TestUtils.waitWorkerExits(pool, max - min)
     expect(pool.workerNodes.length).toBe(min)
   })
 
   it('Shutdown test', async () => {
-    const exitPromise = TestUtils.waitExits(pool, min)
+    const exitPromise = TestUtils.waitWorkerExits(pool, min)
     await pool.destroy()
     const numberOfExitEvents = await exitPromise
     expect(numberOfExitEvents).toBe(min)
@@ -82,15 +82,15 @@ describe('Dynamic cluster pool test suite', () => {
     await pool1.destroy()
   })
 
-  it('Verify scale processes up and down is working when long running task is used:hard', async () => {
+  it('Verify scale processes up and down is working when long executing task is used:hard', async () => {
     const longRunningPool = new DynamicClusterPool(
       min,
       max,
       './tests/worker-files/cluster/longRunningWorkerHardBehavior.js',
       {
         errorHandler: e => console.error(e),
-        onlineHandler: () => console.log('long running worker is online'),
-        exitHandler: () => console.log('long running worker exited')
+        onlineHandler: () => console.log('long executing worker is online'),
+        exitHandler: () => console.log('long executing worker exited')
       }
     )
     expect(longRunningPool.workerNodes.length).toBe(min)
@@ -98,7 +98,7 @@ describe('Dynamic cluster pool test suite', () => {
       longRunningPool.execute()
     }
     expect(longRunningPool.workerNodes.length).toBe(max)
-    await TestUtils.waitExits(longRunningPool, max - min)
+    await TestUtils.waitWorkerExits(longRunningPool, max - min)
     expect(longRunningPool.workerNodes.length).toBe(min)
     expect(
       longRunningPool.workerChoiceStrategyContext.workerChoiceStrategies.get(
@@ -109,15 +109,15 @@ describe('Dynamic cluster pool test suite', () => {
     await longRunningPool.destroy()
   })
 
-  it('Verify scale processes up and down is working when long running task is used:soft', async () => {
+  it('Verify scale processes up and down is working when long executing task is used:soft', async () => {
     const longRunningPool = new DynamicClusterPool(
       min,
       max,
       './tests/worker-files/cluster/longRunningWorkerSoftBehavior.js',
       {
         errorHandler: e => console.error(e),
-        onlineHandler: () => console.log('long running worker is online'),
-        exitHandler: () => console.log('long running worker exited')
+        onlineHandler: () => console.log('long executing worker is online'),
+        exitHandler: () => console.log('long executing worker exited')
       }
     )
     expect(longRunningPool.workerNodes.length).toBe(min)
@@ -126,7 +126,7 @@ describe('Dynamic cluster pool test suite', () => {
     }
     expect(longRunningPool.workerNodes.length).toBe(max)
     await TestUtils.sleep(1500)
-    // Here we expect the workerNodes to be at the max size since the task is still running
+    // Here we expect the workerNodes to be at the max size since the task is still executing
     expect(longRunningPool.workerNodes.length).toBe(max)
     // We need to clean up the resources after our test
     await longRunningPool.destroy()