Introduction aux structures de données sans verrouillage avec des exemples Java

1. Introduction

Dans ce didacticiel, nous allons découvrir ce que sont les structures de données non bloquantes et pourquoi elles constituent une alternative importante aux structures de données simultanées basées sur des verrous.

Tout d' abord, nous allons passer en revue certains termes comme sans obstruction , sans blocage et sans attente .

Deuxièmement, nous examinerons les éléments de base des algorithmes non bloquants tels que CAS (compare-and-swap).

Troisièmement, nous examinerons l'implémentation d'une file d'attente sans verrouillage en Java, et enfin, nous présenterons une approche sur la façon d'obtenir la liberté d'attente .

2. Verrouiller contre la famine

Tout d'abord, regardons la différence entre un thread bloqué et un thread affamé.

Dans l'image ci-dessus, Thread 2 acquiert un verrou sur la structure de données. Lorsque Thread 1 tente également d'acquérir un verrou, il doit attendre que Thread 2 libère le verrou; il ne procédera pas avant de pouvoir obtenir le verrou. Si nous suspendons Thread 2 pendant qu'il maintient le verrou, Thread 1 devra attendre indéfiniment.

L'image suivante illustre la famine du fil:

Ici, Thread 2 accède à la structure de données mais n'acquiert pas de verrou. Le thread 1 tente d'accéder à la structure de données en même temps, détecte l'accès simultané et retourne immédiatement, informant le thread qu'il n'a pas pu terminer (en rouge) l'opération. Le thread 1 réessayera jusqu'à ce qu'il réussisse à terminer l'opération (vert).

L'avantage de cette approche est que nous n'avons pas besoin d'un verrou. Cependant, ce qui peut arriver, c'est que si Thread 2 (ou d'autres threads) accède à la structure de données avec une fréquence élevée, Thread 1 a besoin d'un grand nombre de tentatives jusqu'à ce qu'il réussisse enfin. Nous appelons cela la famine.

Plus tard, nous verrons comment l'opération de comparaison et d'échange permet un accès non bloquant.

3. Types de structures de données non bloquantes

On peut distinguer trois niveaux de structures de données non bloquantes.

3.1. Sans obstruction

La liberté d'obstruction est la forme la plus faible d'une structure de données non bloquante. Ici, nous exigeons seulement qu'un thread soit assuré de continuer si tous les autres threads sont suspendus .

Plus précisément, un thread ne continuera pas à mourir de faim si tous les autres threads sont suspendus. Ceci est différent de l'utilisation de verrous dans ce sens, que si le thread attendait un verrou et qu'un thread qui détient le verrou est suspendu, le thread en attente attendrait indéfiniment.

3.2. Sans verrouillage

Une structure de données offre une liberté de verrouillage si, à tout moment, au moins un thread peut continuer . Tous les autres fils peuvent mourir de faim. La différence avec la liberté d'obstruction est qu'il existe au moins un fil non affamé même si aucun fil n'est suspendu.

3.3. Sans attente

Une structure de données est sans attente si elle est sans verrouillage et que chaque thread est assuré de continuer après un nombre fini d'étapes, c'est-à-dire que les threads ne mourront pas de faim pendant un nombre «déraisonnablement grand» d'étapes.

3.4. Sommaire

Résumons ces définitions en représentation graphique:

La première partie de l'image montre la liberté d'obstruction car le fil 1 (fil supérieur) peut continuer (flèche verte) dès que nous suspendons les autres fils (en bas en jaune).

La partie centrale montre la liberté de verrouillage. Au moins le fil 1 peut progresser tandis que d'autres peuvent mourir de faim (flèche rouge).

La dernière partie montre la liberté d'attente. Ici, nous garantissons que le Thread 1 peut continuer (flèche verte) après une certaine période de famine (flèches rouges).

4. Primitives non bloquantes

Dans cette section, nous examinerons trois opérations de base qui nous aident à créer des opérations sans verrouillage sur des structures de données.

4.1. Comparer et échanger

L'une des opérations de base utilisées pour éviter le verrouillage est l'opération de comparaison et d'échange (CAS) .

L'idée de comparer et permuter est qu'une variable n'est mise à jour que si elle a toujours la même valeur qu'au moment où nous avions récupéré la valeur de la variable dans la mémoire principale. CAS est une opération atomique, ce qui signifie que l'extraction et la mise à jour ensemble sont une seule opération :

Ici, les deux threads récupèrent la valeur 3 de la mémoire principale. Le thread 2 réussit (vert) et met à jour la variable à 8. Comme le premier CAS par thread 1 s'attend à ce que la valeur soit toujours 3, le CAS échoue (rouge). Par conséquent, Thread 1 récupère à nouveau la valeur et le deuxième CAS réussit.

L'important ici est que CAS n'acquiert pas de verrou sur la structure de données mais renvoie true si la mise à jour a réussi, sinon il retourne false .

L'extrait de code suivant décrit le fonctionnement de CAS:

volatile int value; boolean cas(int expectedValue, int newValue) { if(value == expectedValue) { value = newValue; return true; } return false; }

We only update the value with the new value if it still has the expected value, otherwise, it returns false. The following code snippet shows how CAS can be called:

void testCas() { int v = value; int x = v + 1; while(!cas(v, x)) { v = value; x = v + 1; } }

We attempt to update our value until the CAS operation succeeds, that is, returns true.

However, it's possible that a thread gets stuck in starvation. That can happen if other threads perform a CAS on the same variable at the same time, so the operation will never succeed for a particular thread (or will take an unreasonable amount of time to succeed). Still, if the compare-and-swap fails, we know that another thread has succeeded, thus we also ensure global progress, as required for lock-freedom.

It's important to note that the hardware should support compare-and-swap, to make it a truly atomic operation without the use of locking.

Java provides an implementation of compare-and-swap in the class sun.misc.Unsafe. However, in most cases, we should not use this class directly, but Atomic variables instead.

Furthermore, compare-and-swap does not prevent the A-B-A problem. We'll look at that in the following section.

4.2. Load-Link/Store-Conditional

An alternative to compare-and-swap is load-link/store-conditional. Let's first revisit compare-and-swap. As we've seen before, CAS only updates the value if the value in the main memory is still the value we expect it to be.

However, CAS also succeeds if the value had changed, and, in the meantime, has changed back to its previous value.

The below image illustrates this situation:

Both, thread 1 and Thread 2 read the value of the variable, which is 3. Then Thread 2 performs a CAS, which succeeds in setting the variable to 8. Then again, Thread 2 performs a CAS to set the variable back to 3, which succeeds as well. Finally, Thread 1 performs a CAS, expecting the value 3, and succeeds as well, even though the value of our variable was modified twice in between.

This is called the A-B-A problem. This behavior might not be a problem depending on the use-case, of course. However, it might not be desired for others. Java provides an implementation of load-link/store-conditional with the AtomicStampedReference class.

4.3. Fetch and Add

Another alternative is fetch-and-add. This operation increments the variable in the main memory by a given value. Again, the important point is that the operation happens atomically, which means no other thread can interfere.

Java provides an implementation of fetch-and-add in its atomic classes. Examples are AtomicInteger.incrementAndGet(), which increments the value and returns the new value; and AtomicInteger.getAndIncrement(), which returns the old value and then increments the value.

5. Accessing a Linked Queue from Multiple Threads

To better understand the problem of two (or more) threads accessing a queue simultaneously, let's look at a linked queue and two threads trying to add an element concurrently.

The queue we'll look at is a doubly-linked FIFO queue where we add new elements after the last element (L) and the variable tail points to that last element:

To add a new element, the threads need to perform three steps: 1) create the new elements (N and M), with the pointer to the next element set to null; 2) have the reference to the previous element point to L and the reference to the next element of L point to N (M, respectively). 3) Have tail point to N (M, respectively):

What can go wrong if the two threads perform these steps simultaneously? If the steps in the above picture execute in the order ABCD or ACBD, L, as well as tail, will point to M. N will remain disconnected from the queue.

If the steps execute in the order ACDB, tail will point to N, while L will point to M, which will cause an inconsistency in the queue:

Of course, one way to solve this problem is to have one thread acquire a lock on the queue. The solution we'll look at in the following chapter will solve the problem with the help of a lock-free operation by using the CAS operation we've seen earlier.

6. A Non-Blocking Queue in Java

Let's look at a basic lock-free queue in Java. First, let's look at the class members and the constructor:

public class NonBlockingQueue { private final AtomicReference
    
      head, tail; private final AtomicInteger size; public NonBlockingQueue() { head = new AtomicReference(null); tail = new AtomicReference(null); size = new AtomicInteger(); size.set(0); } }
    

The important part is the declaration of the head and tail references as AtomicReferences, which ensures that any update on these references is an atomic operation. This data type in Java implements the necessary compare-and-swap operation.

Next, let's look at the implementation of the Node class:

private class Node { private volatile T value; private volatile Node next; private volatile Node previous; public Node(T value) { this.value = value; this.next = null; } // getters and setters }

Here, the important part is to declare the references to the previous and next node as volatile. This ensures that we update these references always in the main memory (thus are directly visible to all threads). The same for the actual node value.

6.1. Lock-Free add

Our lock-free add operation will make sure that we add the new element at the tail and won't be disconnected from the queue, even if multiple threads want to add a new element concurrently:

public void add(T element) { if (element == null) { throw new NullPointerException(); } Node node = new Node(element); Node currentTail; do { currentTail = tail.get(); node.setPrevious(currentTail); } while(!tail.compareAndSet(currentTail, node)); if(node.previous != null) { node.previous.next = node; } head.compareAndSet(null, node); // for inserting the first element size.incrementAndGet(); }

The essential part to pay attention to is the highlighted line. We attempt to add the new node to the queue until the CAS operation succeeds to update the tail, which must still be the same tail to which we appended the new node.

6.2. Lock-Free get

Similar to the add-operation, the lock-free get-operation will make sure that we return the last element and move the tail to the current position:

public T get() { if(head.get() == null) { throw new NoSuchElementException(); } Node currentHead; Node nextNode; do { currentHead = head.get(); nextNode = currentHead.getNext(); } while(!head.compareAndSet(currentHead, nextNode)); size.decrementAndGet(); return currentHead.getValue(); }

Again, the essential part to pay attention to is the highlighted line. The CAS operation ensures that we move the current head only if no other node has been removed in the meantime.

Java already provides an implementation of a non-blocking queue, the ConcurrentLinkedQueue. It's an implementation of the lock-free queue from M. Michael and L. Scott described in this paper. An interesting side-note here is that the Java documentation states that it's a wait-free queue, where it's actually lock-free. The Java 8 documentation correctly calls the implementation lock-free.

7. Wait-Free Queues

As we've seen, the above implementation is lock-free, however, not wait-free. The while loops in both the add and get method can potentially loop for a long time (or, though unlikely, forever) if there are many threads accessing our queue.

How can we achieve wait-freedom? The implementation of wait-free algorithms, in general, is quite tricky. We refer the interested reader to this paper, which describes a wait-free queue in detail. In this article, let's look at the basic idea of how we can approach a wait-free implementation of a queue.

A wait-free queue requires that every thread makes guaranteed progress (after a finite number of steps). In other words, the while loops in our add and get methods must succeed after a certain number of steps.

In order to achieve that, we assign a helper thread to every thread. If that helper thread succeeds to add an element to the queue, it will help the other thread to insert its element before inserting another element.

As the helper thread has a helper itself, and, down the whole list of threads, every thread has a helper, we can guarantee that a thread succeeds the insertion latest after every thread has done one insertion. The following figure illustrates the idea:

Of course, things become more complicated when we can add or remove threads dynamically.

8. Conclusion

Dans cet article, nous avons vu les principes fondamentaux des structures de données non bloquantes. Nous avons expliqué les différents niveaux et les opérations de base comme comparer et échanger .

Ensuite, nous avons examiné une implémentation de base d'une file d' attente sans verrouillage en Java. Enfin, nous avons présenté l'idée de la manière de parvenir à la liberté d'attente .

Le code source complet de tous les exemples de cet article est disponible à l'adresse over sur GitHub.