Lines Matching refs:queue_pair_entry
19 struct queue_pair_entry { struct
20 vmci_list_item(queue_pair_entry) list_item;
30 struct queue_pair_entry qp; argument
39 vmci_list(queue_pair_entry) head;
50 static struct queue_pair_entry *queue_pair_list_find_entry(
53 struct queue_pair_entry *entry);
55 struct queue_pair_entry *entry);
56 static struct queue_pair_entry *queue_pair_list_get_head(
201 static struct queue_pair_entry *
205 struct queue_pair_entry *next; in queue_pair_list_find_entry()
236 struct queue_pair_entry *entry) in queue_pair_list_add_entry()
261 struct queue_pair_entry *entry) in queue_pair_list_remove_entry()
285 static struct queue_pair_entry *
581 struct qp_guest_endpoint *queue_pair_entry = NULL; in vmci_queue_pair_alloc_guest_work() local
609 if ((queue_pair_entry = in vmci_queue_pair_alloc_guest_work()
612 if (queue_pair_entry->qp.flags & VMCI_QPFLAG_LOCAL) { in vmci_queue_pair_alloc_guest_work()
614 if (queue_pair_entry->qp.ref_count > 1) { in vmci_queue_pair_alloc_guest_work()
621 if (queue_pair_entry->qp.produce_size != consume_size || in vmci_queue_pair_alloc_guest_work()
622 queue_pair_entry->qp.consume_size != produce_size || in vmci_queue_pair_alloc_guest_work()
623 queue_pair_entry->qp.flags != in vmci_queue_pair_alloc_guest_work()
638 my_produce_q = queue_pair_entry->consume_q; in vmci_queue_pair_alloc_guest_work()
639 my_consume_q = queue_pair_entry->produce_q; in vmci_queue_pair_alloc_guest_work()
662 queue_pair_entry = qp_guest_endpoint_create(*handle, peer, flags, in vmci_queue_pair_alloc_guest_work()
664 if (!queue_pair_entry) { in vmci_queue_pair_alloc_guest_work()
672 my_consume_q, num_consume_pages, &queue_pair_entry->ppn_set); in vmci_queue_pair_alloc_guest_work()
682 if (queue_pair_entry->qp.flags & VMCI_QPFLAG_LOCAL) { in vmci_queue_pair_alloc_guest_work()
694 if (queue_pair_entry->qp.handle.context != context_id || in vmci_queue_pair_alloc_guest_work()
695 (queue_pair_entry->qp.peer != VMCI_INVALID_ID && in vmci_queue_pair_alloc_guest_work()
696 queue_pair_entry->qp.peer != context_id)) { in vmci_queue_pair_alloc_guest_work()
701 if (queue_pair_entry->qp.flags & VMCI_QPFLAG_ATTACH_ONLY) { in vmci_queue_pair_alloc_guest_work()
706 result = vmci_queue_pair_alloc_hypercall(queue_pair_entry); in vmci_queue_pair_alloc_guest_work()
715 queue_pair_list_add_entry(&qp_guest_endpoints, &queue_pair_entry->qp); in vmci_queue_pair_alloc_guest_work()
718 queue_pair_entry->qp.ref_count++; in vmci_queue_pair_alloc_guest_work()
719 *handle = queue_pair_entry->qp.handle; in vmci_queue_pair_alloc_guest_work()
728 if ((queue_pair_entry->qp.flags & VMCI_QPFLAG_LOCAL) && in vmci_queue_pair_alloc_guest_work()
729 queue_pair_entry->qp.ref_count == 1) { in vmci_queue_pair_alloc_guest_work()
740 if (queue_pair_entry) { in vmci_queue_pair_alloc_guest_work()
742 qp_guest_endpoint_destroy(queue_pair_entry); in vmci_queue_pair_alloc_guest_work()
753 ASSERT(queue_pair_entry->qp.ref_count > 0); in vmci_queue_pair_alloc_guest_work()